Текст
                    ВВЕДЕНИЕ В ТЕОРИЮ
ВЕРОЯТНОСТЕЙ
И ЕЕ ПРИЛОЖЕНИЯ
ВВЕДЕНИЕ
В ТЕОРИЮ
ВЕРОЯТНОСТЕЙ
И ЕЕ
ПРИЛОЖЕНИЯ


AN INTRODUCTION TO PROBABILITY THEORY AND ITS APPLICATIONS WILLIAM FELLER (1906—1970) Eugene Higgins Professor of Mathematics Princeton University VOLUME I Third Edition Revised Printing John Wiley & Sons New York • Chichester • Brisbane ♦ Toronto 1970
В. ФЕЛЛЕР ВВЕДЕНИЕ В ТЕОРИЮ ВЕРОЯТНОСТЕЙ И ЕЕ ПРИЛОЖЕНИЯ В 2-х томах Том 1 Перевод с пересмотренного третьего английского издания Ю. В. Прохорова с предисловием А. Н. Колмогорова МОСКВА «МИР» 1984 ScanAAW
ББК 22.171 ФЗО УДК 519.21 Феллер В. ФЗО Введение в теорию вероятностей и ее приложения. В 2-х томах. Т. 1: Пер. с англ.—Мл Мир, 1984.—528 с., ил. Перевод первого тома известного курса теории вероятностей, написанного выдающимся американским математиком, выполнен заново с пересмотренного третьего издания. Предыдущие издания (М.: ИЛ, 195 2; М.: Мир, 1964; М. Мир, 1967) быстро разошлись. Первый том содержит изложение той части теории вероятностей, которая имеет дело с дискретными распределениями. Такой отбор материала позво* ляет автору ввести читателя в круг основных идей теории вероятностей без приме* нения сложного аналитического аппарата. Для математиков разных уровней подготовки — от студентов до специалистов по теории вероятностей, для физиков и инженеров, а также для биологов, для кото* рых вероятностные методы являются главными математическими методами. 1702060000-263 041 (01)-84 31-84, ч. 1 ББК 22.171 517.8 Редакция литературы по математическим наукам © Перевод на русский язык, «Мир»,. 1984
ПРЕДИСЛОВИЕ ПЕРЕВОДЧИКА Вниманию читателей предлагается новый перевод двухтомного Курса В. Феллера «Введение в теорию вероятностей и ее приложе- ния». В. Феллер (1906—1970) — один из выдающихся представите- лей современной теории вероятностей — родился в Загребе (Югос- лавия). Математику изучал в Геттингенском университете в Герма- нии, где получил в 1926 г. степень доктора. В 1933 г. покинул Германию. Работал в Копенгагене и Стокгольме и в 1939 г. пере- ехал в США. Профессор Брауновского (1939—1945), Корнеллского (1945—1950) и Принстонского (1950—1970) университетов. Член ряда академий и научных обществ х). Перевод выполнен с последних английских изданий (с пересмот- ренного третьего издания первого тома, 1970, и со второго издания второго тома, 1967). Феллер посвятил созданию, переработке и улучшению курса почти четверть века и делал это с неослабеваю- щим энтузиазмом, никогда не уставая от этого занятия. Ни одна другая книга по теории вероятностей не может сравниться с этой —• так удачно в ней соединены математическая строгость, совершенство доказательств и многочисленность рассматриваемых приложений. Излагая самые сложные математические вопросы, автор не упускает цз виду тех явлений действительности, к которым может быть Применена развиваемая теория. Характер курса таков, что он еще долго не устареет. Воспроизведенные ниже предисловия к прежним изданиям пер- вого тома (как к русским, так и к английским) позволяют мне быть более кратким. В этом томе в целом удачно демонстрируется тот факт, что сравнительно простые модели позволяют хотя бы в пер- вом приближении правильно описать широкий круг практических задач (такими являются, например, модели размещений г шаров по п ящикам и урновые модели). Во многих случаях, особенно там, где интуиция не подсказывает правильного порядка соответствую- х) См. Cramer Н. William Feller.— Rev. Int. Stat. Inst., 1970, v. 38, No. 3# 435—436, а также статьи Doob J. L. William Feller and twentieth century pro- bability и Kac M. William Feller, in memoriam.-— В книге: Proc. Sixth Berkeley Symp. Math. Stat, and Prob,— vol, IL— Berkeley and Los Angeles: Univ, Calif, Press, 1972*
6 Предисловие переводчика щих вероятностей, автор приводит численные результаты. Большое внимание уделено различным приближенным формулам. Их точность иллюстрируется примерами. Используемые при этом рассуждения «типичны для многих предельных теорем теории вероятностей» (с. 122). Весьма полезны (и не только для начинающих читателей) при- веденные в томе результаты «случайных экспериментов», которые создают представление о том, как выглядит «случайность» и сколь неожиданными могут оказаться отклонения от интуитивных пред- ставлений о ней. В связи с результатами случайных экспериментов довольно рано ставится вопрос о способах проверки согласия модели с эк- спериментом и о способах оценки неизвестных вероятностей по данным опыта. Используется критерий %2, упоминается (по конкрет- ному поводу) понятие оценки максимального правдоподобия (с. 66), указываются некоторые критерии случайности. Эта тенденция возможно более раннего показа типичных «статистических выводов», несомненно, целесообразна. Следует отметить, что автор постоянно заботится о приданий терминологии надлежащей точности (см., например, замечание на с. 322 о термине «рекуррентное событие»). Это очень важная сторона дела. Часто начинающие изучать теорию вероятностей запутыва- ются, так как, скажем, слово «событие» на одних и тех же стра- ницах учебников используют и в описательном «донаучном» смысле, и в смысле, предписываемом аксиоматической теорией. Точно так же выражение «произведем п независимых наблюдений случайной величины X» употребляют обычно без упоминания о том, что оно не имеет смысла в аксиоматической теории и служит лишь «разго- ворным вариантом» выражения «рассмотрим п независимых случай- ных величин, имеющих одно и то же распределение вероятностей». Ограничение дискретными пространствами элементарных собы- тий позволяет свести весь используемый аппарат к комбинаторике и к производящим функциям, а в случае, когда последние рацио- нальны, к разложению их на простейшие дроби как методу иссле- дования соответствующих распределений вероятностей. Убедитель- но показана мощь этих методов (гл. Ill, XII — XIV, XVI). В качестве «дефекта» ограничения дискретным случаем автор отмечает, что оно «уменьшает изящество математических рассужде- ний» (с. 211). Можно добавить к этому, что в рамках теории, исполь-
Предисловие переводчика 7 зующей дискретные пространства элементарных событий, оказыва- ется невозможным отразить тесные и важные связи теории вероят- ностей с другими разделами современной математики. «Дискрет- ный подход» позволяет прекрасно объяснить идею независимости, в меньшей степени идею марковской зависимости и совсем остав- ляет в стороне идею «спектрального анализа». При подготовке к изданию перевода первого тома мне оказали большую помощь К. А. Боровков, А. М. Зубков, В. Г. Миранцев, В. В. Ульянов, А. П. Ушакова, В. Г. Ушаков, Н. Г. Ушаков и редактор издательства Г. М. Ильичева. Как и в работе над вторым томом, я пользовался советами А. В. Прохорова и В. В. Сазонова. Им всем я выражаю глубокую благодарность. Москва, август 1983 Ю. Прохоров
ИЗ ПРЕДИСЛОВИЯ КО ВТОРОМУ РУССКОМУ ИЗДАНИЮ Первое издание книги Феллера получило в СССР широкое при- знание. Сейчас вниманию читателей предлагается перевод второго английского издания, во многих деталях усовершенствованного автором. Во втором английском издании книга по-прежнему назы- вается «Введение в теорию вероятностей и ее приложения», пер- вый том двухтомного курса. Так как публикация второго тома вновь откладывается, то в русском издании сохранен подзаголовок [«дискретные распределения» — подзаголовок русского перевода первого издания.— Ю. 77.], указывающий на принцип отбора материала, принятый автором для первого тома своего курса. Именно этот принцип отбора материала позволяет книге Феллера занять самостоятельное место в литературе по теории вероятностей. Ограничиваясь дискретными распределениями, автор имеет возмож- ность достигнуть вполне современной строгости и отчетливости изложения, не выходя за пределы элементарных чисто арифмети- ческих средств, и на твердой теоретической основе довести читателя до ряда важных принципиальных вопросов и большого числа практически интересных задач. Несомненно, что при серьезном систематическом изучении тео- рии вероятностей нельзя оставить в стороне непрерывные распре- деления. Но хорошо известно, что точное определение таких поня- тий, как условная функция распределения F(x| i/)=P(£<x|n=f/) случайной величины £ при заданном значении ч\—у случайной величины т], в случае непрерывных распределений требует трудно воспринимаемых формальных конструкций, что строгое и в то же время общее изложение вопроса о суммировании произвольных независимых случайных величин требует хорошего владения те- орией интеграла Стилтьеса и т. д. Ввиду практической важности непрерывных распределений часто обходятся более элементарными и не всегда строгими средствами. Но именно тем, кто для случая непрерывных распределений ограничится несколько кустарным или не вполне строгим изложением, будет особенно полезно проследить уже с полной отчетливостью параллельное развитие основных веро^
Из предисловия ко второму русскому изданию 9 ятностных идей для дискретного случая. Подробное изучение теории и применений производящих функций целочисленных случайных величин (см. гл. XI книги) является хорошим введением в более трудную и общую теорию характеристических функций произволь- ных случайных величин. Монографическое изучение марковских процессов с конечным или счетным числом состояний, данное в гл. XV—XVII, будет полезно многим читателям, предполагающим впоследствии изучать общую теорию случайных процессов. Более квалифицированный читатель, для которого указанные преимущества первоочередного изучения дискретных распределений не существенны, заинтересуется книгой Феллера по преимуществу просто в качестве собрания большого числа частных задач и про- считанных до получения вполне конкретных результатов примеров. При разборе задач Феллер выдвигает на первый план решение их «прямыми», специфически вероятностными средствами. Эта тенден- ция видеть за аналитическими преобразованиями их «вероятност- ный» смысл принадлежит к числу наиболее ценных сторон книги Феллера. Заслуживает внимания также стремление автора книги на тщательно подобранных примерах наглядно показать характер дей- ствия вероятностных закономерностей. Во многих случаях автору удается ввести читателя в действительно интересные вопросы со- поставления статистических данных с вероятностной теорией явле- ния. 1964 А. Н. Колмогоров
Нейгебауэруr) о et praesidium et dulce decus meum * 2) ПРЕДИСЛОВИЕ К ТРЕТЬЕМУ ИЗДАНИЮ Когда эта книга впервые была задумана (более 25 лет тому назад) немногие математики за пределами Советского Союза виде- ли в теории вероятностей полноправную ветвь математики. Прило- жения имели ограниченные цели, а исследования конкретных проб- лем часто приводили к непостижимым усложнениям. Если учесть эти обстоятельства, то задуманная книга была бы написана не для существовавшей тогда аудитории и не удовлетворяла бы осознанным в то время потребностям. Однако автор надеялся привлечь внимание к мало известным сторонам теории вероятностей, установить связи между отдельными ее частями, развить единые методы и указать на возможные или вероятные приложения. Бла- годаря возрастанию интереса к теории вероятностей книгу неожи- данно часто использовали те, кто работал за пределами математичес- ких дисциплин. Ее широкое применение в те годы объяснимо, ибо принятая в ней точка зрения была новой, а изложенный материал был недоступен иным путем. Но книга остается популярной даже и теперь, когда содержание большей части ее глав можно найти в рабо- тах, посвященных отдельным областям и хорошо приспособленных для удовлетворения более специальных нужд. По этой причине и в новом издании характер книги остался тем же самым. Я надеюсь, что она будет продолжать обслуживать самые разнообразные тре- бования и что по-прежнему найдутся читатели, которые прочтут ее просто для удовольствия и из любознательности. На протяжении многих лет я с благодарностью получал много- численные сообщения от тех, кто пользовался книгой, и эти сообще- ния были причиною различных усовершенствований. Многие пара- графы были переписаны, чтобы облегчить изучение. Процесс чтения облегчен также за счет лучшего шрифта и благодаря превосходной редакторской работе, которую проделала г-жа Мак-Дугал, сохра- нившая сочувствие к требованиям читателей и доводам здравого смысла, несмотря на свою принадлежность к профессиональным редакторам. Наибольшие изменения произведены в гл. III. Вопросы, входя- Отто Нейгебауэр (р. 1899, с 1939 г. в США) — австрийский матема- тик, историк математики и астрономии. На русском языке опубликованы его книги «Лекции по истории античных математических наук. Том I. Догрече- ская математика».— М.— Л.^ ОНТИ, 1937 и «Точные науки в древности». — М., 1968.— Прим, перев, 2) О отрада моя, честь и прибежище! — К Меценату («Славный внук, Ме- ценат»), перевод А. Семенова-Тян-Шанского. — В кн.: Квинт Гораций Флакк. Оды. Эподы. Сатиры. Послания.— М.: Художественная литератураг 1970. — Прим, перев.
Предисловие к третьему изданию 11 щие в эту главу, были включены лишь во второе издание. Практи- ческой причиной этого явилось прежде всего неожиданное открытие, что ее увлекательные выводы можно получить элементарными ме- тодами. Старое изложение опиралось на остроумные комбинаторные соображения, которые теперь заменены более простыми и более естественными вероятностными соображениями. По существу эта глава написана заново. Среди прочих добавлений наиболее заметными являются новые параграфы, посвященные ветвящимся процессам, цепям Маркова и теореме Муавра — Лапласа. Глава XIII перестроена; небольшие изменения сделаны во многих местах книги; появились новые приме- ры и задачи. Я сожалею о том, что именной указатель может ввести в заблуж- дение, но я чувствовал себя обязанным давать точную ссылку каждый раз, когда идея или пример восходили к определенному источнику. Это означало, увы, что цитаты часто берутся из попутных замечаний и поэтому редко отражают истинный характер цитируемой статьи. Кроме того, многие примеры и задачи были навеяны чтением нема- тематических статей, в которых другими методами изучались сход- ные положения. (В написанных позже учебниках при цитировании этих нематематических статей считают, что они содержат мои при- меры. Это показывает, как быстро развивается теория вероятно- стей, но одновременно показывает и ограниченную полезность ци- тат.) Недостаток места и умения помешали мне дать более подроб- ные исторические указания и описать, каким образом теория ве- роятностей от полумистических рассуждений двадцатых годов пере- шла в современное состояние процветания. На протяжении многих лет я имел благоприятную возможность работать со студентами и своими более молодыми коллегами. Я мно- гим обязан их помощи и их воодушевлению. Возможность работать с ними явилась во многих отношениях следствием той поддержки, которую оказывало исследованиям по теории вероятностей, проводя- щимся в Принстонском университете, Научно-исследовательское управление Армии США. Я выражаю особую благодарность Дж. Голдману за серьезный меморандум, описывающий его педагогический опыт, и Л. Питту за преданную помощь при чтении корректур. Июль 1967 Вильям Феллер,
ПРЕДИСЛОВИЕ К ПЕРЕСМОТРЕННОМУ ТРЕТЬЕМУ ИЗДАНИЮ В отличие от первого издания книги третье ее издание содержало тревожащее число неточностей. В настоящем пересмотренном изда- нии все обнаруженные неточности устранены. Многие формулиров- ки улучшены, а также добавлены указания к задачам в тех случаях, когда это не требовало переверстки. Я благодарен издательству, разрешившему сделать эти дорогостоящие изменения, которые направлены к тому, чтобы книга читалась более легко. Почти все изменения были предложены или профессором Р. Ма- холом и доктором Дж. Крофтом, работающими вместе в Чикаго, или подполковником (теперь в отставке) Королевской армии Дании Пребеном Кюлем. Они прочли книгу необычайно внимательно и с глубоким пониманием. Мне была весьма полезна последовавшая в результате этого приятная переписка. Принстон, 1970
ПРЕДИСЛОВИЕ К ПЕРВОМУ ИЗДАНИЮ Первоначально у автора было намерение написать книгу об аналитических методах теории вероятностей, которая трактовала бы эту теорию с точки зрения чистой математики. Изложение при этом было бы более единообразным и поэтому более удовлетвори- тельным в эстетическом отношении; кроме того, оно было бы при- влекательнее для чистых математиков. Однако щедрая поддержка, оказываемая Научно-исследовательским управлением Военно-мор- ских сил США работам по теории вероятностей, ведущимся в Кор- неллском университете, склонила автора к скорее ведущей к успе- ху, но менее благодарной попытке удовлетворить разнородные запросы более широкого круга читателей. Целью этой книги является строгое изложение теории вероят- ностей как самостоятельной математической дисциплины, избегаю- щее нематематических понятий. В то же время автор старался описать эмпирические основания теории вероятностей и развить у читателя ощущение всего многообразия ее приложений. Чтобы достигнуть второй цели, приведены многочисленные задачи, рас- четы и примеры, которые прерывают основной ход изложения. Они четко выделены в тексте и отличаются более образным и менее формальным языком. В книгу включено некоторое количество спе- циальных тем, чтобы показать силу общих методов и сделать книгу более полезной специалистам различных направлений. Чтобы облегчись чтение, отступления (detours) от основного пути отмечены звездочкой. Отмеченные разделы для понимания остальной части текста не обязательны. Автором была предпринята серьезная попытка достичь един- ства методов. Специалисты найдут в книге много упрощений в су- ществующих доказательствах, а также и новые результаты. В част- ности, для нужд этой книги была развита теория рекуррентных со- бытий. Она позволяет по-новому изложить теорию цепей Маркова, что приводит к упрощениям даже в случае конечного числа состоя- ний. Примеры сопровождаются задачами (числом около 340), причем для большей части задач даны полные решения. Некоторые из этих задач — простые упражнения, но в основном они содержат добавоч- ный иллюстративный материал или же так или иначе дополняют текст. Одно из назначений этих примеров и задач — развить вероят- ностную интуицию читателя и его умение формулировать вероятно- стные утверждения. Решение задач, кажущихся трудными, может потребовать совсем незначительных усилий, если их сформулиро- вать естественным образом и включить в надлежащий контекст, а также предпослать им несколько разобранных примеров.
14 Предисловие к первому изданию В преподавании теории вероятностей часто стремятся возможно быстрее сводить вероятностные задачи к задачам математического анализа, забывая при этом особенности самой этой теории. Такой подход основан на негодном определении случайной величины, которое обычно вводится в самом начале. В полную противополож- ность этому настоящая книга построена на понятии пространства элементарных событий. Вводить случайные величины без этого понятия — значит демонстрировать искусство вводить в заблужде- ние. Чтобы отразить истинное положение вещей и избежать при этом теоретико-множественных и других чисто математических трудностей, в этом томе рассматриваются только дискретные про- странства элементарных событий. Это жесткое ограничение, но его будут приветствовать читатели, не являющиеся математиками. Оно позволяет включить в книгу специальные вопросы, которые нелегко найти в литературе, и в то же время дает возможность, начав изло- жение элементарно, почти исчерпывающим образом рассмотреть такие глубокие темы, как теория случайных блужданий и теория цепей Маркова. Общая теория случайных величин и их распределе- ний вероятностей, предельные теоремы, теория диффузионных процессов и некоторые другие темы отложены до следующего тома. Эта книга не могла бы быть написана без поддержки Научно- исследовательского управления Военно-морских сил США. Как одно из следствий этой поддержки возникли постоянные личные контакты с Дж. Л. Дубом; его критические замечания и неизменно одобрительное отношение были неоценимы. Ему я выражаю свою особую благодарность. Затем я благодарю Дж. Риордана, который внимательно прочитал два варианта рукописи. Многие поправки и усовершенствования были предложены моей женой, которая прочи- тала и рукопись, и корректуру книги. Автор обязан также Чжун Кайлаю, М. Донскеру и С. Голдбергу, которые прочитали рукопись и исправили некоторые неточности; решения большинства задач были подготовлены С. Голдбергом. В заключение я благодарю К. Холленбах, которая терпеливо и ис- кусно перепечатала рукопись, а также Е. Ельяша, В. Хоффмана и Дж. Р. Кинни за помощь при чтении корректур. Корнеллский университет Январь 1950 г. Вильям Феллер
КАК ПОЛЬЗОВАТЬСЯ ЭТОЙ КНИГОЙ *) В изложении имеется много отступлений, и оно не всегда идет от простого к сложному; сравнительно трудные с формальной точки зрения разделы встречаются в самом начале, а совсем легкие — в гл. XV и XVII. Неискушенный читатель отнюдь не должен сле- дить за многочисленными побочными линиями, иначе он за деревья- ми не увидит леса. Вводные замечания к главам книги и звездочки, которыми помечены заголовки отдельных параграфов, должны облегчить ориентацию и выбор пропускаемых читателем разделов. Не помеченные звездочками разделы образуют единое целое, и для их понимания остальные разделы не нужны. Первоначальное введение в основные понятия теории вероятно- стей содержится в главах I, V, VI, IX; начинающему следует изучить их с наименьшим возможным числом пропусков. Глава II предназначена для развития у читателя технических навыков и вероятностной интуиции; некоторое знакомство с ее содержани- ем желательно, но нет нужды изучать ее систематически: предпоч- тительнее, быть может, в дальнейшем возвращаться к этим простым иллюстрациям по мере надобности. Для первоначального ознаком- ления с элементарной теорией непрерывных распределений требу- ются лишь весьма немногие дополнительные разъяснения (соответ- ствующий материал содержат элементарные главы тома 2). Во вводном курсе можно от гл. IX сразу перейти к гл. XI, в которой Производящие функции рассматриваются по образцу более общих преобразований. За гл. XI должны следовать какие-либо приложения из гл. XIII (рекуррентные события) или из гл. XII (цепные реакции, безгранично делимые распределения). Не исполь- зуя понятия производящей функции, можно двигаться в одном из следующих направлений: предельные теоремы и теория флуктуаций (гл. VIII, X, III); стохастические процессы (гл. XVII); случайные блуждания (гл. III и основная часть гл. XIV). Главы, посвященные каждому из этих направлений, почти независимы одна от другой. Хотя теория цепей Маркова (гл. XV) опирается на понятия и факты теории рекуррентных событий, но ее можно изучать и независимо, если читатель пожелает принять без доказательства основную эрго- дическую теорему. Глава III стоит в стороне от остальных глав. Ее содержание привлекательно само по себе, но, кроме того, она в высшей степени показательна с точки зрения новых взглядов и новых методов х) Этот раздел отсутствовал в двух первых английских изданиях (во вто- ром английском издании соответствующие указания были включены в преди- словие автора)в—Прим, перев,
16 Как пользоваться этой книгой теории вероятностей. Результаты, касающиеся флуктуаций, возни- кающих при последовательных бросаниях монеты, демонстрируют, что широко распространенные представления о действии закона больших чисел обманчивы. Эти результаты поразительны и резко расходятся с обычными представлениями; даже искушенные люди сомневались в том, что монеты в действительности ведут себя столь «неправильно», как предсказывает теория. Именно поэтому в § 6 включены результаты моделирования. Эта глава рассматривает лишь простейшую схему — бросание монеты, однако полученные выводы представительно отражают и значительно более общую ситуацию. Знак ► указывает на завершение доказательства или на конец серии примеров. Автор надеется, что подробный указатель поможет читателю сог- ласовать при работе с книгой различные ее разделы.
ВВЕДЕНИЕ ПРИРОДА ТЕОРИИ ВЕРОЯТНОСТЕЙ § 1. ИСХОДНЫЕ ПРЕДСТАВЛЕНИЯ Теория вероятностей — математическая дисциплина, родствен- ная таким дисциплинам, как, например, геометрия или теоретиче- ская механика. В каждой дисциплине мы должны заботиться о раз- личении трех сторон теории: а) формального логического содер- жания, б) интуитивных представлений, в) приложений. Не рас- сматривая этих трех сторон в их взаимосвязи, нельзя правильно оценить отличительные черты теории в целом и ее привлекатель- ность. а. Формальное логическое содержание С точки зрения аксиоматического подхода математика занима- ется исключительно соотношениями между неопределяемыми объек- тами. Эту сторону дела хорошо поясняет пример игры в шахматы. Невозможно «определить» шахматы иначе, как сформулировав систему правил игры. Можно до некоторой степени описать услов- ную форму фигур, но не всегда ясно, например, какая из них явля- ется королем. Шахматная доска и фигуры полезны, но можно обой- тись и без них. Суть дела состоит в том, как ходят и действуют фи* гуры, и бессмысленно говорить об «определении» или «истинной природе» пешки или короля. Аналогично этому геометрия не беспокоится о том, чем «на самом деле» являются точки и прямые. Они остаются неопределяе- мыми понятиями, и аксиомы геометрии лишь устанавливают связи между ними: две точки определяют прямую и т. п. Это «правила игры», и в них нет ничего неприкосновенного. Различные геометрии основаны на различных системах аксиом, и логическая структура каждой из неевклидовых геометрий не зависит от ее отношения к действительности. Физики исследовали движение тел в предполо- жении, что закон тяготения имеет форму, отличную от открытой Ньютоном, и такое изучение имеет смысл, даже если считать, что в природе действует закон Ньютона. б. Интуитивные представления В отличие от шахматных правил аксиомы геометрии и теоре- тической механики опираются на интуитивные представления. В самом деле, геометрическая интуиция столь сильна, что склонна опережать логическое рассуждение. Вопрос о том, до какой степени
18 Введение. Природа теории вероятностей 4 взаимозависимы логика, интуиция и физический опыт,— это проб- лема, в которую нам незачем вникать. Несомненно, что интуицию можно совершенствовать упражнениями и развивать. Теряющийся в шахматной игре новичок делает ходы осторожно, вспоминая от- дельные правила, в то время как опытный игрок с одного взгляда оценивает сложную позицию и не может объяснить свою интуицию разумными доводами. Подобным же образом и математическая интуи- ция растет вместе с опытностью, и можно развить, скажем, интуитив- ное восприятие соотношений в четырехмерном пространстве. Создается впечатление, что и общая интуиция человечества усиливается. Ньютоновские понятия поля сил и действия на рас- стоянии, а также максвелловская идея электромагнитных волн сна- чала открыто осуждались и считались «невообразимыми» и «про- тиворечащими интуиции». Современная техника и радиоприемники в домах сделали эти понятия столь распространенными, что они стали частью повседневного словаря. Аналогично этому современный студент не в состоянии оценить способы рассуждений, предрассудки и прочие трудности, с которыми приходилось бороться теории ве- роятностей в первое время ее существования. В наши дни газеты сообщают о выборочных обследованиях общественного мнения, и ма- гия статистики охватывает все стороны жизни в такой степени, что молодые девушки следят за статистикой, оценивая свои шансы выйти замуж. Поэтому каждый приобретает интуитивное представ- ление о смысле таких утверждений, как «за это событие — три шанса из пяти». Эта интуиция (хотя и расплывчатая) является достаточной предпосылкой для первых шагов. Она будет развиваться по мере изучения теории и ознакомления с некоторыми весьма непростыми ее приложениями. в. Приложения В приложениях геометрии и теоретической механики теоретиче- ские понятия отождествляются с некоторыми физическими объекта- ми, но способ этого отождествления гибок и меняется от случая к случаю, так что нельзя дать общих правил. Понятие твердого тела — одно из основных и полезных понятий теоретической механики, и все же ни один физический объект не является твердым. Можно ли данное тело рассматривать как твердое, зависит от обстоятельств и требуемой точности приближения к действительности. Резина не может быть примером твердого тела, однако, обсуждая движение автомобиля по льду, учебники обычно рассматривают резиновые покрышки как твердое тело. В зависимости от целей теории мы можем пренебрегать атомной структурой вещества; мы можем также рассматривать Солнце то как шар из непрерывного вещества, тй как материальную точку. В приложениях абстрактные модели служат лишь орудием, и од- но и то же явление, наблюдаемое опытным путем, могут описывать различные модели. Способ применения математических теорий не
§2. Способ изложения 19 обусловливается какими-либо заранее сложившимися мнениями; это направленное к определенной цели умение, зависящее от опытности и меняющееся вместе с ней. Вполне уместен философский анализ этого умения, но такой анализ находится вне области математики, физики или статистики. Философское рассмотрение оснований тео- рии вероятностей должно быть отделено от математической теории вероятностей и математической статистики в такой же мере, как рассмотрение наших интуитивных представлений о пространстве отделяется теперь от геометрии. § 2. СПОСОБ ИЗЛОЖЕНИЯ История теории вероятностей (и математики вообще) свидетель- ствует о стимулирующем взаимодействии теории и ее приложений: достижения теории открывают новое поле приложений, а приложе- ния в свою очередь приводят к новым проблемам и плодотворно влияют на направление исследований. В настоящее время теорию Вероятностей применяют во многих далеких друг от друга областях, и общая теория должна быть достаточно гибкой, чтобы разработать средства подхода ко множеству разнообразных проблем. Мы долж- ны противостоять соблазну (к которому присоединяется давление обстоятельств) разработать теорию, терминологию и математический аппарат, слишком приближая их к какой-либо одной частной обла- сти приложений. Вместо этого мы намерены развить общую теорию, родственную тем, которые привели к успеху геометрию и теоретиче- скую механику. Мы начнем с простейших опытов, таких, как бросание монеты или игральной кости, где все утверждения имеют очевидный инту- итивный смысл. Эти интуитивные соображения будут переведены на язык некоторой абстрактной модели, которая будет обобщаться по- степенно, шаг за шагом. Иллюстративные примеры будут объяснять эмпирические предпосылки теории и развивать интуицию читателя, но сама теория будет иметь математический характер. будем пытаться объяснить «истинный смысл» вероятностей не больше чем современный физик останавливается на «действительном смысле» массы и энергии или геометр объясняет природу точки. Вместо этого мы будем доказывать точные теоремы и приводить примеры их применения. История показывает, что первоначально теория вероятностей развивалась для описания очень ограниченного круга опытов, свя- занных с азартными играми, и основные усилия были направлены на вычисление определенных вероятностей. В соответствии с этим и мы в нескольких первых главах вычислим некоторые типичные вероятности. При этом следует иметь в виду, что вовсе не отыскание этих численных значений вероятностей является целью общей тео- рии. Объектом последней является раскрытие общих законов и за-
20 Введение. Природа теории вероятностей висимостей, а также построение абстрактных моделей, которые могут в удовлетворительной степени описывать физические явления* Вероятности играют для нас ту же роль, что и массы в теоре- тической механике: можно обсуждать движение планетной системы, не зная масс отдельных планет и не рассматривая методов их дей- ствительного измерения. Можно также с пользой (для проясне- ния сути дела) изучать гипотетическое движение несуществующей планетной системы. Точно так же и вероятностные модели могут быть полезны даже в том случае, когда они описывают объекты, кото- рые не могут наблюдаться или не заслуживают наблюдения. Напри- мер, миллиарды долларов вкладывают в развитие систем автомати- ческой телефонной связи. При этом используют простые вероятност- ные модели, позволяющие сравнивать различные осуществимые системы. Лучшая в соответствии с этой теорией система принима- ется, другие же никогда не будут реализованы. Аналогично в стра- ховом деле теорию вероятностей используют для подсчета вероят- ности разорения страховой компании. На этой основе теория дает рекомендации, как избежать определенных нежелательных ситуа- ций, которые в результате никогда не будут наблюдаться. Теория вероятностей была бы действенной и полезной, даже если было бы нелегко найти хотя бы один численный результат* § 3. «СТАТИСТИЧЕСКАЯ» ВЕРОЯТНОСТЬ Успех современной математической теории вероятностей при- обретен следующей ценой: теория ограничивается лишь одной сто- роной «случайности». Интуитивное понятие вероятности связано с индуктивными умозаключениями и суждениями вроде следующих: «Павел, вероятно, счастливый человек», «вероятно, эта книга будет неудачной», «гипотеза Ферма, вероятно, ошибочна». Суждения такого рода интересны философам и логикам и являются также законным объектом математической теории х). Следует подчеркнуть, однако, что мы будем иметь дело не с модальностями индуктивных умозаключений, а с тем, что может быть названо физической или статистической вероятностью. Грубо говоря, мы можем охаракте- ризовать это понятие, сказав, что наши вероятности относятся не к мнениям, а к возможным исходам мыслимого эксперимента. Прежде чем говорить о вероятностях, мы должны условиться насчет идеали- зированной модели рассматриваемого мыслимого эксперимента, подобного бросанию монеты, составлению выборки из совокупности кенгуру, обитающих на Луне, наблюдению движения частицы при х) Koopman В. О., The axioms and algebra of intuitive probability, Ann, of Math., 41 (1940), 269—292; The bases of probability, Bull. AMS, 46 (1940), 763—774. В качестве современного курса, основанного на понятии субъективных вероятностей, можно рекомендовать Savage L. J., The foundations of statistics^ New York, John Wiley, 1954*
$ 4. Резюме 21 ь. диффузии или подсчету числа телефонных вызовов. С самого начала мы должны условиться о том, что представляют собой возможные исходы такого эксперимента (их совокупность будет нашим простран- ством элементарных событий г)) и каковы соответствующие им ве- роятности. Это аналогично обычному образу действий в теоретиче- ской механике, когда вводят воображаемую модель, включающую две, три или семнадцать материальных точек, и эти точки лишаются своих индивидуальных свойств. Подобным же образом, анализируя результаты бросаний монеты в игре, мы отвлекаемся от несуществен- ных черт реального опыта и принимаем в качестве объекта нашей теории последовательности символов типа «герб, герб, решетка, герб,...». В нашей системе нет места для догадок о вероятности того, что завтра взойдет Солнце. Прежде чем говорить о такой вероятно- сти, мы должны были бы условиться о (идеализированной) модели опыта, описание которой предположительно начиналось бы такз «случайным образом выбирается один из бесконечного множества миров...». Для того чтобы построить такую модель, не требуется особого воображения, но она представляется и неинтересной, и не- значительной. Астрономы говорят об измерении температуры в центре Солнца или о путешествии на Сириус. Эти действия кажутся невозможны- ми, и все-таки размышления о них не бессодержательны. По таким же причинам мы не будем беспокоиться о том, выполним или нет наш мыслимый эксперимент; мы будем анализировать абстрактные модели. В глубине нашей души мы сохраняем интуитивное истолко- вание смысла вероятности, и это истолкование в ряде приложений приобретает и практическое значение. Мы представляем себе экспе- римент, выполняемый очень много раз. Следует ожидать, что со- бытие, имеющее скажем, вероятность 0,6, будет происходить с ча- стотой шестьдесят случаев из ста. Это описание умышленно неопре- деленно, но оно создает образные интуитивные представления, достаточные для некоторых более простых приложений. По мере развития и усложнения теории практическое истолкование вероят- ности и интуитивное представление о ней будут принимать более определенные формы» § 4. РЕЗЮМЕ Мы будем иметь дело с теоретическими моделями, в которые вероятности входят в качестве свободных параметров, подобно мас- сам в теоретической механике. Эти модели применяют многими способами, которые также подвержены изменению. Умение приме- нять теорию и интуиция развиваются одновременно с развитием теории. х) В оригинале sample space, т. е. пространство, образуемое возможными результатами выборки (см. пример гл. I, 2, г)). Подробное разъяснение тер- минологии можно найти в гл. 25 книги Крамер Г. Математические методы статистики, -2-е изд,—M,i Мир, 1975,— Прим, перев.
22 Введение. Природа теории вероятностей Это обычный путь, принятый и в других математических дисцип- линах и оказавшийся плодотворным. Никто не предложил другого пути, который мог бы в достаточной мере удовлетворить все разнооб- разные нужды и потребности как растущего организма, называемого теорией вероятностей, так и приложений этой теории. Можно сетовать на то, что интуитивное понятие вероятности недостаточно для научной теории, но это исторический факт. В примере гл. I, 6, б) мы исследуем случайное размещение частиц по ячейкам. Соответствующее «естественное» распределение вероятно- стей представлялось совершенно очевидным каждому и прини- малось без колебаний физиками. Однако оказалось, что физические частицы не обладают «здравым смыслом», и «естественное» распре- деление Больцмана пришлось в одних случаях заменить на распре- деление Бозе — Эйнштейна, а в других — на распределение Фер- ми — Дирака. Не существовало никаких интуитивных доводов, почему фотоны ведут себя иначе, чем протоны и почему частицы обоих типов не подчиняются «априорным» законам. Если бы теперь и уда- лось обосновать эти факты, то это свидетельствовало бы только о том, что интуиция развивается вместе с теорией. Во всяком случае, даже для приложений существенны свобода и гибкость теории, и было бы пагубной ошибкой сковывать ее слишком жесткими ограничениями. Утверждали также, что современная теория вероятностей слиш- ком абстрактна и слишком обща, чтобы быть полезной. Столь же воинственный крик поднимался в свое время практически мысля- щими людьми против максвелловской теории поля. Чтобы опроверг- нуть эти доводы, достаточно было бы указать на неожиданные новые применения, появившиеся благодаря абстрактной теории случайных процессов или на новые достижения современной теории флуктуаций, которые противоречат наивной интуиции и приводят к пересмотру некоторых практических рекомендаций. Однако этот спор просто бесполезен: осуждать слишком легко. Те вещи, которые стали сегодня практически важными, еще вчера порицались как непрактичные, и теории, которые станут практически важными завтра, практические люди сегодняшнего дня всегда будут клеймить и называть ничего не стоящей абстрактной игрой. § 5. ИСТОРИЧЕСКИЕ ЗАМЕЧАНИЯ Статистический или эмпирический подход к вероятности был развит главным образом Фишером х) и Мизесом * 2). Понятие прост- х) Фишер Роналд Эймлер (Fisher R. А.; 1890—1962) — английский стати- стик и генетик, один из основателей математической статистики и математической популяционной генетики. В русском переводе издана книга Фишер Р. Э. Стати- стические методы для исследователей.— М.: Статиздат, 1958.— Прим, перев* 2) Мизес Рихард (von Mises R.; 1883—1953) — немецкий математик и меха- ник. Основные работы относятся к теории вероятностей, гидродинамике и при- кладной механике. В 1933 г, эмигрировал из Германииг с 1939 г. жил в США,—• Прим, переев
§ 5. Исторические замечания 23 ранства элементарных событий х) идет от Мизеса. Это понятие сделало возможным построение строгой математической теории вероятностей на основе теории меры. Такой подход развивался постепенно в течение 20-х годов под влиянием многих авторов. Аксиоматический подход на современном уровне был разработан А. Н. Колмогоровым * 2). Мы будем следовать этому направлению, хотя термин «аксиоматическое построение», может быть, звучит слишком торжественно, ибо в этом томе речь идет только о простом случае дискретных вероятностей.. х) Немецкий термин Merkmalraum (пространство меток). Основной курс Мизеса Wahrscheinlichkeitsrechnung появился в 1931 г. Обновленный вариант (изданный и дополненный Хильдой Гейрингер) опубликован в 1964 г. под назва- нием Mathematical theory of probability and statistics, New York, Academic Press. Философские взгляды Мизеса получили наибольшую известность благо- даря его более ранней книге, изданной в 1928 г. (пересмотренное X. Гейрингер издание Probability, statistics and truth, London, Macmillan, 1957). [Имеется русский перевод издания 1928 г.: Мизес Р. Вероятность и статистика / Под ре- дакцией и с предисловием А. Я. Хинчина.— М. — Л.: ГИЗ, 1930.— Перев.} 2) Колмогоров А. Н., Основные понятия теории вероятностей.— М.— Л.: ОНТИ, 1936,— 2-е изд.— М.: Наука, 1974; первоначальное издание — Grund- begriffe der Wahrscheinlichkeitsrechnung, Berlin, Springer, 1933,
ГЛАВА I ПРОСТРАНСТВА ЭЛЕМЕНТАРНЫХ СОБЫТИЙ § 1. ЭМПИРИЧЕСКИЕ ОСНОВАНИЯ Математическая теория вероятностей приобретает практическую ценность и наглядный смысл в связи с такими действительными или мыслимыми опытами, как, например, бросание монеты сто раз, бросание трех игральных костей, сдача колоды карт, сопоставление двух колод карт, игра в рулетку, наблюдение продолжительности существования радиоактивного атома или жизни человека, выбор наудачу некоторой группы людей и подсчет среди них числа левшей, скрещивание двух сортов растений и наблюдение фенотипов потом- ков. Сюда же относятся такие явления, как пол новорожденных, колебание числа занятых междугородных линий на телефонной станции или числа телефонных вызовов, наличие случайных шумов в системах связи, результаты выборочного контроля качества про- мышленной продукции, непостоянство частоты несчастных случаев, а также числа двойных звезд на различных участках неба или поло* жения частицы при диффузии. Пока описание всех этих явлений довольно неопределенно, и чтобы придать теории точный смысл, мы должны условиться о том, что мы понимаем под возможными исходами рассматриваемого опыта или наблюдения. При бросании монеты не обязательно выпадает герб или решет- ка; монета может куда-нибудь закатиться или встать на ребро.Тем не менее мы условимся рассматривать герб и решетку как един- ственно возможные исходы бросания монеты. Это соглашение упро- щает теорию и не сказывается на возможностях ее применения* Идеализация подобного рода проводится постоянно. Невозможно безошибочно измерить продолжительность существования какого- либо атома или время жизни какого-либо лица; однако в теоретичес- ких исследованиях целесообразно считать эти величины точными числами. Но при этом возникает вопрос: какие числа могут и какие не могут представлять продолжительность жизни человека? Су-* ществует ли максимальный возраст, сверх которого жизнь невозмож? на, или для возрастов возможны любые значения? Мы, конечно, не решимся допустить, что человек может дожить до 1000 лет, и тем не менее обычная практика страхового дела не принимает никакой границы для продолжительности жизни. В соответствии с формула- ми, на которых основаны современные таблицы смертности, доля лю- дей, доживающих до 1000 лет, имеет величину порядка единицы, деленной на 1О1оЭ6»— числа, начинающегося с 1027 миллиардов ну-
§ 7. Эмпирические основания 25 лей. Это утверждение лишено смысла с точки зрения биологии или социологии, но если его рассматривать исключительно с точки зре- ния статистики, то оно не противоречит опыту. В течение столетия рождается менее чем 1010 людей, и чтобы статистически опровергнуть приведенное выше утверждение, потребовалось бы более чем 1О1о3а столетий, что превышает возраст земного шара более чем в 101()34 раз. Очевидно, столь исключительно малые вероятности совместимы с нашим представлением о невозможности. Можно было бы подумать, что их употребление является полным абсурдом; в дей- ствительности оно совершенно безвредно и приводит к упрощению многих формул. Кроме того, если бы мы решили всерьез исключить возможность дожить до 1000 лет, то мы должны были бы допустить существование максимального возраста. А право же, предположе- ние, что можно дожить до х лет, но нельзя прожить х лет и две секунды столь же непривлекательно, как и представление об отсут- ствии границы для продолжительности жизни. Любая теория обязательно предполагает некоторую идеализа- цию. Мы начинаем ее с возможных исходов «опыта» или «наблюде- ния». Если мы хотим построить абстрактную модель опыта, то мы должны сначала установить, что представляют собой возможные исходы идеализированного опыта. Для единства терминологии результаты опытов или наблюдений будут называться событиями. Так мы будем говорить о событии, которое состоит в том, что из пяти брошенных монет более трех вы- пали гербом вверх. Аналогично «эксперимент», состоящий в сдаче карт для игры в бридж х), может иметь своим результатом «событие», заключающееся в том, что игрок «Север» получил два туза. Состав выборки («среди выбранных 85 людей — двое левшей») и результат измерения («температура 120°», «семь междугородных линий сво- бодны») будут также называться событиями. Мы будем различать составные (или разложимые) события и эле- ментарные (или неразложимые) события. Например, сказать, что сумма очков, выпавших при бросании двух игральных костей, равна шести, все равно что сказать, что произошло событие «(1, 5), или (2, 4), или (3, 3), или (4, 2), или (5, 1)», и это перечисление раз- лагает событие «сумма очков равна шести» на пять элементарных событий. Аналогично этому событие «выпали две грани с нечетным числом очков» допускает разложение «(1, 1), или (1, 3), или . . . х) Определение бриджа и покера. Колода карт для игры в бридж состоит из 52 карт, которые делятся на четыре равные группы по масти. Карты каждой ма- сти различают по значению. Имеется 13 значений (2, 3, . . ., 10, валет, дама, ко- роль, туз). Четыре масти называются: пики, трефы, червы и бубны. Две последние масти — красные, две первые — черные. Карты одного значения называют од- нотипными. Для нас игра в бридж означает сдачу колоды карт четырем игрокам (которых мы будем называть «Север», «Юг», «Восток» и «Запад» и для краткости обозначать N, S, Е, W [первые буквы слов North, South, East, West.— Перев.]\ по 13 карт каждому. Игра в покер означает по определению выбор пяти карт из колоды,
26 Гл. I. Пространства элементарных событий' или (5, 5)» на девять элементарных событий. Заметим, что если в результате нашего эксперимента мы получили (3, 3), то одни и те же бросания привели и к событию «сумма очков равна шести», и к со- бытию «выпали две грани с нечетным числом очков». Эти события не являются взаимно исключающими и поэтому могут происходить одновременно. В качестве второго примера рассмотрим возраст человека. Каждое частное значение х представляет элементарное событие, тогда как утверждение о том, что данному человеку пошел шестой десяток, описывает составное событие «50 < х < 60». Итак, каждое составное событие может быть разложено на элементарные события; иначе говоря, составное событие есть совокупность элемен- тарных событий. Если мы хотим говорить об «опытах» и «наблюдениях» в рамках нашей теории и без каких бы то ни было неясностей, то мы должны прежде всего условиться, каковы элементарные (неразложимые далее) события, представляющие собой мыслимые исходы опыта или наблюдения; они определяют идеализированный опыт (заметим, что термин «элементарное (или неразложимое) событие» остается столь же неопределенным, что и термины «точка» или «прямая» в геомет- рии). По определению каждый неразложимый исход (идеализирован- ного) опыта представляется одним и только одним элементарным событием. Совокупность всех элементарных событий будем называть пространством элементарных событий г), а сами элементарные со- бытия — точками этого пространства. Все события, связанные с данным (идеализированным) опытом, могут быть описаны как совокупности элементарных событий. Прежде чем формализовать это основное соглашение, мы обсу- дим несколько типичных примеров, которые будут играть опреде- ленную роль и в дальнейшем. § 2. ПРИМЕРЫ а) Размещение трех шаров по трем ящикам. Табл. 1 содержит все возможные исходы «опыта», состоящего в размещении трех ша- |)ов по трем ящикам. Каждое из этих размещений представляет неразложимый исход эксперимента, т. е. элементарное событие. Событие А «существует ящик, содержащий не менее двух шаров», происходит при размеще- ниях с номерами 1—21, и мы выражаем это, говоря, что событие А есть множество элементарных событий 1—21. Аналогично этому событие В «первый ящик не пуст» можно описать как множество то- чек (элементарных событий) 1, 4—15, 22—27. Событие С «произо- шло и А, и В» есть множество, состоящее из тринадцати элементар- ных событий (1, 4—15). При выбранных А и В оказывается, что каждая из 27 точек принадлежит или А, или В (или одновременно См. примечание на cs 21.— Прим,, перев^
§ 2. Примеры 21 Таблица 1 1. 2. {а6с| — | } { — |а&с| — } 10. {а 1 и-} |а с| —} 19. { — fa | be} 11. { ь 20. { — | b \а с} 3. { - 1 - labc] 12. { с \ab | — } 21. {- | c\ab } 4. {ab | с|—} 13. {а 1 — 1 Ьс} 22. {« 1 ь | с} 5. {а с] Ь | — } 14. { ъ 1 — 1а с} 23. {а 1 с\ Ь } 6. { Ьс\а | — } 15. { с 1 — \ab } 24. { b |а I с} 7. {ab | — | с} 16. {- \ab | с) 25. { b 1 с\а } 8. {а с| — | 6 } 17. {- \а с| Ъ } 26. { с| \а 1 Ъ } 9. { *с| — ]а } 18. {- | Ьс\а } 27, { с 1 Ь |а }. и Л, и В); поэтому событие «произошло или Л, или В, или одновре- менно и А и В» совпадает со всем пространством элементарных событий и происходит с абсолютной достоверностью. Событие D «4 не произошло» состоит из точек 22—27 и может быть описано усло- вием, что нет пустых ящиков. Наконец, событие «первый ящик пуст, и не существует ящика, содержащего более одного шара», невозмож- но (не может произойти), так как не существует элементарных собы- тий, удовлетворяющих этим условиям. б) Размещение г шаров по п ящикам. Более общий случай разме- щения г шаров по п ящикам может быть рассмотрен аналогичным образом, однако число возможных исходов эксперимента быстро возрастает с ростом г и п. Для г=3 шаров и п=4 ящиков соответ- ствующее пространство элементарных событий состоит уже из 81 точки, а для г=лг=10 это число точек равно 1010; полная таблица заняла бы примерно сто тысяч больших томов. Мы воспользуемся примером, чтобы разъяснить тот важный факт, что природа пространства элементарных событий не играет роли для нашей теории. Для нас это пространство (вместе с заданным на нем распределением вероятностей) определяет идеализированный эк- сперимент. Мы пользуемся образным языком шаров и ящиков, но то же самое пространство допускает большое число интерпретаций. Чтобы пояснить нашу точку зрения, а также для удобства дальней- ших ссылок мы приведем ряд схем, внешне весьма различных, но по существу эквивалентных абстрактной схеме размещения г шаров по п ящикам в том смысле, что соответствующие исходы отличаются лишь словесным их описанием. Вероятности, приписываемые эле- ментарным событиям, могут при этом быть различными в различных примерах, и эта сторона дела будет обсуждаться впоследствии. (6.1) Дни рождения. Распределение дней рождения г человек соответствует размещению г шаров по п=365 ящикам (полагаем, что в году 365 дней). (6.2) Несчастные случаи. Разделение несчастных случаев на груп- пы по дням недели, в которые они происходят, равносильно разме-, щению г шаров по п=7 ящикам.
28 Гл. J. Пространства элементарных событий' (б.З) При стрельбе по п мишеням пули соответствуют шарам, мишени — ящикам. (6.4) Выборочное обследование. Пусть группа из г человек разби- вается на классы, скажем, по возрасту или по профессии. Классы играют роль ящиков, люди — шаров. (6.5) Облучение в биологии. Когда сетчатка глаза подвергается воздействию света, кванты света играют роль шаров, а клетки сетчатки соответствуют ящикам. Аналогично при исследовании гене- тического эффекта облучения хромосомы соответствуют ящикам, а а-частицы — шарам *). (6.6) При экспериментах с космическими лучами частицы, попа- дающие в сетчики Гейгера, играют роль шаров, а сами счетчики — ящиков. (6.7) Лифт отправляется с г пассажирами и останавливается на п этажах. Распределение пассажиров по группам в зависимости от этажа, на котором они выйдут, соответствует размещению г шаров по п ящикам. (6.8) Игра в кости. Возможному исходу эксперимента, состоя- щего в бросании г игральных костей, соответствует распределение г шаров по п=6 ящикам. Если бросают монеты, то имеют дело с п=2. (6.9) Случайные цифры. Каждой последовательности из г слу- чайных цифр соответствует размещение г шаров (десятичных разря- дов) по п=10 ящикам с номерами 0, 1, 2, . . ., 9. (б. 10) Распределение г человек по признаку пола. В этом случае имеется п=2 ящика и г шаров. (б. 11) Собирание купонов* 2). Различные типы купонов соответ- ствуют ящикам, все собранные купоны — шарам. (6.12). Распределение тузов между игроками при игре в бридж. Четыре игрока соответствуют четырем ящикам, четыре туза — шарам. (6.13) Распределение генов. Каждый потомок некоторой особи (человека, животного или растения) наследует определенные гены родителя. Если некоторый ген может находиться в одной из п форм Лх, . . ., Ап, то потомков можно классифицировать по формам данного гена. Потомки особи соответствуют шарам, генотипы At, ... ♦ .., Ап — ящикам. (6.14) Химические реакции. Предположим, что молекулярные цепочки некоторого полимера взаимодействуют с кислородом. Каж- дая цепочка может прореагировать с 0, 1, 2, . . . молекулами х) Здесь (как и в других примерах, связанных с генетикой) используется тер- минология, принятая в книге Мюнтцинг А. Генетика. Общая и прикладная.— М.: Мир, 1967.— Прим, перев. 2) Под купоном здесь понимается торговый ярлык, фирменная обертка, этикетка или аналогичное свидетельство сделанной покупки. Некоторое количе- ство собранных купонов дает право на известные льготы при приобретении то- варов.— Прим, перев.
§2. Примеры 29 кислорода. Реагирующие молекулы кислорода играют роль шаров, а цепочки полимера — роль ящиков, в которых размещают шары* (6.15) Теория светочувствительных материалов. Фотографичес- кая пластинка покрыта слоем светочувствительных зерен, причем каждое зерно реагирует, если в него ударяется определенное число г квантов. Для теории черно-белой фотографии важно знать число прореагировавших зерен (т. е. тех, в которые попало г квантов). В этом случае мы получаем типичную задачу о размещении, где зерна эмульсии соответствуют ящикам, а кванты света — шарам. (В действительности дело обстоит сложнее, так как пластинка обычно бывает покрыта зернами различной чувствительности.) (6.16) Опечатки. Возможные распределения г опечаток в книге, содержащей п страниц, соответствуют размещениям г шаров по п ящикам, если только г меньше, чем число печатных знаков на стра- нице. в) Случай неразличимых шаров. Вернемся к примеру а) и пред- положим теперь, что все три шара одинаковы. Это означает, что мы больше не делаем различия между такими размещениями, как 4, 5, 6 и т. п. В этом случае табл. 1 сводится к табл. 2, которая опреде- ляет новое пространство элементарных событий. Соответствующий мыслимый эксперимент мы назовем размещением трех неразличимых шаров по трем ящикам. Аналогичные рассуждения применимы и к более общему случаю г шаров и п ящиков. Таблица 2 1 * {*** ] —» | —— } 2. { —- |***| —> } 3. { -- | — |***} 4. {** |*| — } 5. {** | — | * } 6, { * |**|—} 7, { * |—I**} 8. {—]**| *} 9. ( | * j **) 10. { * | *| *}. Различимы ли шары на самом деле, для нашей теории несущест- венно. Если это даже и так, мы можем условиться считать их нераз- личимыми. Тузы в бридже [пример (б. 12)] или люди в лифте [пример (6.7)], конечно, различимы, и тем не менее часто предпочтительнее считать их неразличимыми. Игральные кости в примере (6.8) можно окрасить и сделать их тем самым различимыми, но выберем ли мы при решении какой-либо данной задачи схему с различимыми или схему с неразличимыми шарами, определяется поставленными целями и достигаемыми преимуществами. Характер задачи может предписать определенный выбор, но в любом случае нашу теорию можно развивать только после того как соответствующая модель выбрана, т. е. после того как определено пространство элементар- ных событий.
30 Гл. 7. Пространства элементарных событий В приведенном выше примере мы рассматривали неразличимые шары, но в табл. 2 еще различаются первый, второй и третий ящики, и их порядок существен. Мы можем пойти еще дальше и считать, что даже ящики неразличимы (например, ящики можно выбирать на- удачу независимо от их содержимого). Если и шары, и ящики неразличимы, то возможны только три размещения, а именно {»»*|— |—}, —}, {*|*|*}. г) Выборочное обследование. Предположим, что с целью оценить число курящих выбрана группа в 100 человек. При этом единствен- ное интересующее нас свойство данной выборки — число х курящих; оно может быть равно любому целому числу от 0 до 100. В этом случае мы можем принять, что наше пространство элементарных событий состоит из 101 «точки» х=0, 1, • . ., 100. Итог каждой отдельной выборки (или наблюдения) полностью описывается зада- нием соответствующей точки х. Примером составного события может служить следующее: «большинство людей в данной выборке — курящие». Это означает, что опыт заканчивается одним из 50 эле- ментарных событийх=51, 52, . . 100 (безразлично, каким именно). Аналогично и любое другое свойство выборки можно описать, перечислив соответствующие случаи или элементарные события. Для единства терминологии мы предпочитаем говорить о событиях, а не о свойствах выборки. G математической точки зрения событие является просто множеством соответствующих точек пространства элементарных событий. д) Выборочное обследование (продолжение). Допустим теперь, что выбранные нами 100 человек делятся на классы не только по признаку «курящие» или «некурящие», но и по полу. Выбранная группа может быть теперь охарактеризована четверкой чисел Мк, Жк, Мн, Жн, означающих по порядку число курящих мужчин, число курящих женщин, число некурящих мужчин и число неку- рящих женщин. В качестве элементарных событий мы возьмем четверки целых чисел, принимающих значения от 0 до 100 и даю- щих в сумме 100. Таких четверок существует 176 851; они и образуют пространство элементарных событий (см. гл. II, 5). Утверждение, что в выборке «среди мужчин доля курящих больше, чем среди жен- щин», означает, что для нашей выборки отношение Мк/Мк больше отношения Жк/Жк. Точка (73, 2, 8, 17) этим свойством обладает, а точка (0, 1, 50, 49) не обладает. По существу наше событие может быть описано перечислением всех четверок чисел, обладающих за- данным свойством. е) Бросание монеты. Если монета бросается три раза, то про- странство элементарных событий состоит из восьми точек, которые удобно обозначить следующим образом: ГГГ, ГГР9 ГРГ, РГГ, ГРР, РГР, РРГ, РРР [Г означает выпадение гррба при соответ- ствующем бросании, Р — решетки.— Перев.]. Событие А «выпало не менее двух гербов» совпадает с множеством первых четырех точек.
<S 3. П ростр анство элементарных событий. События 31 Событие В «выпала ровно одна решетка» означает или ГГР, или ГРГ, или РГГ; мы говорим, что В содержит эти три точки. ж) Возраст супругов. Страховые компании интересуются рас- пределением возрастов супругов. Пусть х означает возраст мужа, а у — возраст жены. Каждое наблюдение дает пару чисел (х, у). В качестве пространства элементарных событий мы берем первый квадрант плоскости х, у, так что каждая точка х >> 0, у > 0 будет элементарным событием. Событие А «мужу свыше 40 лет» представ- ляется всеми точками, лежащими справа от прямой х=40; событие В «муж старше жены» представляется областью, лежащей между осью х и прямой у=х, т. е. множеством точек, для которых х > у; собы- тие С «жене свыше 40 лет» представляется точками первого квадран- та, расположенными выше прямой //=40. Для геометрического представления возрастов двух супружеских пар нам потребовалось бы четырехмерное пространство. з) Фазовое пространство, В статистической механике каждое возможное «состояние» системы называют «точкой фазового простран- ства». Отличие здесь только в терминологии. Фазовое пространство есть просто наше пространство элементарных событий, а его точки — наши элементарные события х). § 3. ПРОСТРАНСТВО ЭЛЕМЕНТАРНЫХ СОБЫТИЙ. СОБЫТИЯ Из предыдущего должно быть ясно, что мы никогда не будем говорить о вероятностях вне связи с каким-либо пространством элементарных событий (или, говоря на физическом языке, вне связи с некоторым мыслимым опытом). М.ы начинаемо понятия простран- ства элементарных событий и его точек; впредь они будут рассмат- риваться как данные. Они являются первоначальными и неопределяе- мыми понятиями теории, так же как понятие «точка» и «прямая» остаются неопределяемыми при аксиоматическом построении евк- лидовой геометрии. Природа элементарных событий не играет роли в нашей теории. Пространство элементарных событий служит моде- лью идеализированного опыта в том смысле, что по определению любой мыслимый исход опыта полностью описывается одной и толь- ко одной точкой этого пространства. О каком-либо событии А имеет смысл говорить только тогда, когда для каждого исхода опыта из- вестно, произошло или не произошло событие А. Совокупность точек, представляющих все те исходы, при которых происходит событие А, полностью описывает это событие. Обратно, произвольно заданное множество А, содержащее одну или более точек нашего пространства, можно назвать событием; оно происходит или не происходит в зависимости от того, принадлежит или не принадле- жит множеству А точка, представляющая исход опыта. Для нас х) См., например, Хинчин А. Я. Математические основания статистической механики.— М.— Л.: ОГИЗ, 1943.— Прим, перев.
§2 Гл. J. Пространства элементарных событий поэтому слово событие будет означать то же самое, что некоторое множество элементарных событий. Мы будем говорить, что событие А состоит из определенных точек (или содержит эти точки), а именно из точек, представляющих те исходы идеализированного опыта, при которых происходит событие А. Пример. В пространстве элементарных событий примера 2, а) рас- смотрим событие U, состоящее из точек с номерами 1, 7, 13 (см. табл. 1). Это определение является формальным и самым простым, но U можно описать и многими другими способами. Например, U можно определить как событие, состоящее в одновременном выпол- нении следующих трех условий: (1) второй ящик пуст, (2) шар а находится в первом ящике, (3) номер ящика, где находится шар Ь, не превышает номера ящика, где находится шар с. Каждое из этих трех условий в свою очередь определяет событие. Событие Ut, определяемое только условием (1), состоит из точек 1, 3, 7—9, 13—15. Событие U2, определяемое условием (2), состоит из точек 1, 4, 5, 7, 8, 10, 13, 22, 23, и, наконец, событие U3, определяемое условием (3), состоит из точек 1—4, 6, 7, 9—11, 14, 16, 18—20, 22, 24, 25. Событие U можно теперь описать как одновременное осуще- ствление всех трех событий Ui, U3. ► Хотя термины «событие» и «элементарное событие» вызывают определенные интуитивные представления, для нас они будут равносильны терминам «точечное множество» и «точка», как их понимают во всех разделах математики. Предыдущий пример и пример 2, а) показывают, что по данным двум или более событиям можно определить новые события. Опира- ясь на подобные примеры, мы введем теперь систему обозначений, относящихся к формальной алгебре событий (т. е. алгебре точечных множеств). § 4. ОТНОШЕНИЯ МЕЖДУ СОБЫТИЯМИ Теперь мы предположим, что задано произвольное, но фиксиро- ванное пространство элементарных событий Мы будем использо- вать заглавные латинские буквы для обозначения событий, т. е. множеств элементарных событий. Тот факт, что точка х содержится В событии А, обозначим символом х£А. Так, для любой точки х имеем х£ @. Мы пишем А—В в том и только том случае, когда эти события состоят из одних и тех же точек. События будут, вообще говоря, определяться некоторыми усло- виями, налагаемыми на их точки. Удобно ввести символ, выражаю- щий тот факт, что ни одна из точек не удовлетворяет определенно- му набору условий. Этой цели служит следующее определение. Определение 1. Мы будем пользоваться записью 4=0 для выра^ жения того, что событие А не содержит элементарных событий
§ 4, Отношения между событиями 33 '(событие А невозможно). Нуль следует понимать символически, а не как цифру х)* Каждому событию А соответствует некоторое другое событие, определяемое условием «событие А не произошло». Оно содержит все точки, не содержащиеся в А. Определение 2. Событие, состоящее из всех точек, не содержащих- ся в событии А, называют событием, противоположным событию А (или отрицанием А), и обозначают через Д' 2). В частности, ©'=0. С любыми двумя событиями А и В можно связать два новых События, определенных условиями «имеют место и А, и В» и «имеют место или А, или В, или и А, и В». Эти события будут обозначаться соответственно АВ и А и В. Событие АВ содержит все точки, общие событиям А и В. Если события Л и В взаимно исключают друг друга, то они не имеют общих точек и событие АВ невозможно; 'аналитически это описывают формулой ДВ=0, (4.1) которая должна читаться так: «события Л и В несовместны». Событие ДВ' означает, что произошло и Д, и В', т. е. что событие А произошло, а событие В не произошло. Аналогично Д'В' озна- чает, что ни А, ни В не произошли. Событие ДиВ означает, что хотя бы одно из событий А или В произошло; оно содержит все точки, за исключением точек, не принадлежащих ни Д, ни В. С точки зрения теории вероятностей мы можем охарактеризовать событие АВ как одновременное осуществление событий ДиВ. По стандартной математической терминологии событие АВ называют (логическим) пересечением событий ДиВ. Подобным же образом событие ДиВ называют объединением событий ДиВ. Введенные нами понятия переносятся и на случай многих событий А, В, С, Определение 3. Любой совокупности событий А, В, С, . . . мы сопоставляем два новых события следующим образом. Множество, состоящее из элементарных событий (точек), принадлежащих одно- временно всем заданным событиям, будет обозначаться через АВС. . , и называться пересечением (или одновременным осуществлением) событий А, В, С, . . .3) (см. рис. 1). Множество, состоящее из эле- ментарных событий, каждое из которых принадлежит хотя бы одному из заданных событий, будет обозначаться через А и В и С . . . ---------- I х) Часто предпочитают другой символ, а именно 0.— Прим, перев. \ 2) Такое событие иногда называют дополнительным событием (дополне-* нием A, complementary event) и обозначают также через А или Ас.— Прим, перев. 3) Стандартное математическое обозначение для пересечения двух или более множеств таково: ЛПВ, Это обозначение в определен- ных случаях удобнее (см. гл. IV, 1 тома 2). Здесь мы используем обозначе-, ние АВ, ABCt для тогог чтобы облегчить труд наборщика. 2 № 221
34 Гл. t. Пространства элементарных событий и называться объединением заданных событий (или осуществлением хотя бы одного из них). События А, В, С, . . . попарно несовместны (взаимно исключают друг друга), есл и никакие два из них не имеют общих точек, т. е. если АВ^= О, АС^= О, . . ВС=О, .... Мы нуждаемся еще в символе для обозначения того, что со- бытие А не может произойти, если не произошло В, или того, что событие В является следствием события А. Это означает, что каждая точка события А содержится в событии В. Примером может слу- жить множество всех матерей, являющееся частью множества всех женщин: все матери суть женщины, но не все женщины суть матери. Рис. 1. Область, ограниченная внешним контуром, является объ- единением A U В U С. «Треуголь- ная» (дважды заштрихованная) область является пересечением АВС. Область в форме полуме- сяца (заштрихована) является пересечением В и события, про- тивоположного ди с. в Рис. 2. Пересечение и раз- ности событий. Определение 4. Символы А а: В и В zd А означают одно и тоже* а именно что каждая точка А содерж ится в В; словесно это выражают так: «событие А влечет за собой событие В» или соответственно «событие В является следствием события Л». В этом случае мы будем также писать В—А вместо В А' для обозначения того, что событие В произошло, а событие А не произошло (см. рис. 2). Событие В—А содержит все точки события В, не являющиеся точками события Ах). Пользуясь этим обозначением, напишем Л' = ©—А и А— Л = 0. Примеры, а) Если события А и В несовместны, то осуществле- ние события А влечет за собой осуществление события В', и наобо- рот. Следовательно, Л В—О означает то же самое, что Л сВ' и Вс: А \ !) Именно так определяют разность множеств В и Д, не предполагая, что АсВ (другое обозначение В\Д). Наряду с так определенной разностью множеств В и А определяют и их симметрическую разность (В\Д)П(Д\В) (обозначения Д+В или ДДВ). Вводя в дополнение к так определенной опе- рации «сложения» операцию «умножения» и полагая ДВ = ДВ, нетрудно показать, что по отношению к операциям Д- и • класс всех подмножеств & будет кольцом (в алгебраическом смысле); так как Д.Д = Д, то оно будет булевым кольцом с единицей т. е. булевой алгеброй,— Прим, персе.
§ 5. Дискретные пространства элементарных событий 35 б) Событие А—АВ означает, что произошло событие Я, но не произошли одновременно оба события А и В. Поэтому А—АВ~ *=АВ'\ в) В примере 2, ж) событие АВ означает, что мужу свыше 40 лет и что он старше своей жены, тогда как АВ' означает, что ему свыше 40 лет, но он не старше своей жены. Событие АВ поэтому изобра- жается неограниченной трапециевидной областью, лежащей между осью х и прямыми я—40 и у=х. Событие АВ' изображается неогра- ниченной треугольной областью, лежащей между прямыми х=40 и у—х, с включенной второй границей. Событие АС означает, что каждому из супругов свыше 40 лет. Событие Л и С означает, что хотя бы одному из них свыше 40 лет, тогда как Л и В означает, что либо мужу свыше 40 лет, либо, если это не так, он хотя бы старше своей жены (выражаясь юридически «возраст мужа превосходит 40 лет или возраст жены, смотря по тому, что из них меньше» х)). г) Пусть в примере 2, a) Et означает событие, состоящее в том, что ящик с номером i пуст (t=l, 2, 3). Аналогично пусть Sz, Dit Tt соответственно означают события, состоящие в том, что ящик с номером i содержит один шар, два шара, три шара. Тогда <=Т3, SiS^aSg и П1П2=0. Заметим также, что T'j.cEs и т. д. Собы- тие £>iUH2[jD3 определяется условием, что существует хотя бы один ящик, содержащий два шара. д) Бридж (см. примечание к § 1). Пусть А, В, С, D означают события, состоящие соответственно в том, что при сдаче колоды карт для игры в бридж игрок «Север», «Юг», «Восток», «Запад» полу- чил по крайней мере одного туза. Ясно, что хотя бы один из игро- ков имеет туза, так что по крайней мере одно из четырех событий должно иметь место. Следовательно, Л и В и C\jD=<& есть все про- странство элементарных событий., Событие ABCD происходит тогда и только тогда, когда каждый игрок имеет туза. Событие «игрок «Восток» получил всех четырех тузов» означает, что ни одно из со- бытий Л, В, С не произошло, или, что то же самое, что одновре- менно осуществились события Л4, В' и С, т. е. произошло событие А'В'С'. е) В примере 2, ж) мы имеем ВС с А, т. е. «если муж старше жены (В) и жене свыше 40 лет (С), то мужу свыше 40 лет (Л)». Как словесно описать событие Л—ВС? ► § 5. ДИСКРЕТНЫЕ ПРОСТРАНСТВА ЭЛЕМЕНТАРНЫХ СОБЫТИЙ Простейшими пространствами элементарных событий являются те, которые содержат конечное число п точек. Если п достаточно мало (как в случае бросания нескольких монет), то это пространств х) В подлинике фраза имитирует стиль английских юридических докумен-. тов,— Прим, перев, 2*
36 Гл. I. Пространства элементарных событий во легко себе представить. Пространство элементарных событий при сдаче карт для игры в бридж гораздо сложнее. Тем не менее можно представить себе, что каждое элементарное событие изображается какой-то фишкой, и затем рассматривать множество этих фишек как изображение пространства элементарных событий. Каждое событие А (например, «игрок «Север» получил двух тузов») изображается группой фишек; событие А' изображается остальными фишками. Остается сделать один шаг для того, чтобы представить себе ящик е бесконечным числом фишек или пространство элементарных собы- тий, состоящее из бесконечной последовательности точек Et, Ез, Е3....... Примеры, а) Условимся бросать монету до тех пор, пока не вы- падет герб. Тогда элементарными событиями будут: Е1=Г, Ез~РГ, Е3^=РРГ, Е^РРРГ и т. д. Мы можем допустить, что герб ни- когда не выпадет, или не допускать такой возможности. Допуская эту возможность, мы должны представить ее дополнительной точ- кой Ео. б) Три игрока а, b и с участвуют в игре (подобной игре в шахматы) по следующей системе. В первом туре играют а и Ь, а игрок с свободен. Проигравший заменяется игроком с, и во втором туре- играют победитель и с, а игрок, потерпевший поражение в первом туре, свободен. Соревнование продолжается таким образом до тех пор, пока один из игроков не выиграет двух партий подряд, и в этом случае его объявляют победителем. Для простоты мы исклю- чаем возможность ничьей в отдельной партии. Возможные исходы соревнования описываются тогда следующей схемой:' аа, асе, acbb, acbaa, acbacc, acbacbb, acbacbaa,. . . , . . bb, bcc, bcaa, bcabb, bcabcc, bcabcaa, bcabcabb, .... Наряду с этим вполне мыслимо, что ни один из игроков не вы- играет двух партий подряд, т. е. что соревнование будет продолжать- ся неограниченно долго по одной из двух следующих схем: acbacbacbacb. . ., bcabcabcabca .... (**) Пространство элементарных событий для нашего мыслимого опыта определяется формулами (») и (**) и является бесконечным. Од- нако ясно, что точки этого пространства можно занумеровать в простую последовательность. Для этого достаточно, например, на первые два места поставить точки (**), а на последующие — точки (*) в таком порядке: аа, bb, асе, Ьсс, .... (Продолжение этого примера см. в задачах 5 и 6, примере гл. V, 2,а) и задаче 5 гл. XV, 14.) ► Определение. Пространство элементарных событий называется дискретным, если оно состоит лишь из конечного числа точек или из бесконечного числа точек, которые могут быть занумерованы в про- стую последовательность Еи Ег, ... .
£ 6< Вероятности в дискретных пространствах, событий 37 Не каждое пространство элементарных событий дискретно. Известна теорема (принадлежащая Г. Кантору), утверждающая, что пространство элементарных событий, состоящее из всех положитель- ных чисел, не дискретно. Здесь мы сталкиваемся с разграничением, известным и в теоретической механике, где обычно сначала рассмат- ривают системы, составленные из отдельных материальных точек, каждая из которых имеет положительную массу, а затем переходят к случаю непрерывного распределения массы, когда каждая отдель- ная точка имеет массу, равную нулю. В первом случае масса систе- мы получается попросту сложением масс отдельных точек, во втором случае она вычисляется интегрированием плотности. Совершенно аналогично вероятности событий в дискретном пространстве эле- ментарных событий получаются просто сложением, тогда как в других пространствах необходимо интегрирование. Кроме аналити- ческих средств, которые приходится привлекать, эти два случая ничем существенным не отличаются. Желая изложить собственно вероятностные рассуждения, избегая при этом трудностей техничес- кого характера, мы сначала займемся лишь дискретными простран- ствами элементарных событий. Мы увидим, что даже этот частный случай приводит ко многим интересным и важным результатам. В этом томе мы будем рассматривать только дискретные про- странства элементарных событий. § 6. ВЕРОЯТНОСТИ В ДИСКРЕТНЫХ ПРОСТРАНСТВАХ Элементарных событий; подготовительные замечания Вероятности событий — числа той же природы, что и рассто- яния в геометрии или массы в теоретической механике. Теория предполагает, что они заданы, и не нуждается ни в каких предполо- жениях об их действительном численном значении или о способе их измерения на практике. Некоторые из наиболее важных прило- жений носят качественный характер и не зависят от численных значений вероятностей событий. В тех сравнительно немногих случаях, когда требуется знать численные значения вероятностей некоторых событий, вычислительные приемы столь же разнообраз- ны, сколь и методы определения расстояний. Когда плотник, землемер, лоцман и астроном измеряют расстояния, то в их дейст- виях мало общего. В этом же контексте мы можем рассмотреть коэффициент диффузии. Это понятие теории вероятностей. Чтобы найти численное значение этого коэффициента, требуются физичес- кие соображения, связывающие его с другими теориями; прямое же измерение невозможно. Статистические таблицы смертности, наобо- рот, составляются на основании наблюдений. В наиболее сущест- венных приложениях измерение вероятностей событий или сравне- ние результатов теории с данными наблюдений требуют применения довольно сложных статистических методов, опирающихся в свою очередь на развитую вероятностную теорию. Иначе говоря, хотя
38 Гл. I. Пространства элементарных событий наглядный смысл понятия вероятности и ясен, но лишь по мере развития теории мы сумеем увидеть, как следует применять это понятие. Все возможные «определения» понятия вероятности весьма неполно отражают реальную практику. Бросая «правильную» монету, мьь не колеблемся связать ве- роятность 1/2 с выпадением герба или решетки. Это приводит к вы- воду, что при п бросаниях монеты все 2" возможных случаев равно- вероятны. С теоретической точки зрения, это — допущение. Часто говорят, что такое допущение — логически неизбежное и единст- венно возможное. Однако были философы и статистики, которые отвергали это допущение и исходили из предположений, полно- стью его исключающих (в этом отражаются различные точки зре- ния на законы природы) х). Часто утверждают также, что значение 1/2 для вероятности по- лучается из опыта. На самом деле применение утонченных статисти- ческих методов к фактическим результатам опытов с бросанием мо- нет неизменно показывало, что выпадение герба и выпадение ре- шетки не являются одинаково вероятными событиями. Тем не ме- нее мы придерживаемся нашей модели «идеальной» монеты, хотя на самом деле правильных монет не существует. Мы сохраняем эту модель не только из-за ее логической простоты, но в основном из-за ее полезности и применимости. Во многих приложениях эта модель достаточно точно описывает действительность. Еще важнее тот извле- каемый из опыта факт, что отклонения от нашей схемы всегда свя- заны с такими явлениями, как, например, несовпадение центра тя- жести монеты с ее геометрическим центром. Таким образом, наши идеализированные модели могут быть в высшей степени полезными, даже несмотря на то, что они никогда не являются вполне точными. Например, в современном статистиче- ском контроле качества продукции* 2) идеализированные вероятност- ные модели используются для выявления «объяснимых причин» 3) бросающихся в глаза отклонений от этих моделей и последующего быстрейшего устранения неисправностей в работе машин и непра- вильностей течения производственного процесса. Подобные замечания относятся и к другим случаям. Число воз- можных распределений карт между игроками при игре в бридж равно почти 1030. Обычно мы соглашаемся считать эти распределения карт х) В оригинале в скобках стоят слова uniformity or non-uniformity in nature. Термин uniformity in nature в английском толковом словаре Вебстера (Webster’s third new international dictionary.— Springfield: C. G. Merriam Co., 1965) объяс- няется так: «доктрина или принцип, утверждающие неизменность или правиль- ность в природе; в более специальном понимании — принцип, утверждающий* что идентичные исходные состояния или идентичные причины неизменно имеют следствием идентичные эффекты».— Прим, перев. 2) В оригинале «основанном на методах Шухарта»; см. разд, б гл. II, 5.—• Прим, перев. 3) В оригинале «assignable causes», т. е. соображения, которые могут быть приведены в качестве^ причин,— Прим^ перев.
§ 6. Вероятности в дискретных пространствах событий 39 равновероятными. Для проверки этого допущения потребовалось бы более 1030 опытов, т. е. тысячи миллиардов лет круглосуточно*! цгры всех живущих на Земле людей, если считать продолжитель- ность игры равной одной секунде. Однако следствия нашего предпо- ложения могут быть проверены экспериментально посредством наблюдения, например, за частотой появления нескольких тузов у Одного игрока. Оказывается, что идеализированная модель описы- вает опыт с достаточной для предварительных целей точностью (в предположении, что карты тасуют лучше,чем это обычно делается). Еще важнее то, что в случаях когда наблюдаемые результаты не согласуются с идеализированной схемой, на основе этой схемы мож- но обнаружить «объяснимые причины» расхождения, например из- менение способа тасовки карт. Эти примеры имеют ограниченную ценность, но они свидетельствуют о полезности принятых моделей. Более интересные примеры встретятся при дальнейшем развитии теории. Примеры, а) Различимые шары, В примере 2,а) представляется естественным предположение о том, что все элементарные события равновероятны, т. е. что каждое из них имеет вероятность 1/27. Мы можем, отправляясь от этого определения, изучать его следст- вия. Будет или не будет наша модель достаточно точно описывать действительность, зависит от типа явлений, к которым ее будут при- менять. В одних приложениях равновероятность исходов является следствием физических соображений. В других приложениях ос- нованную на равновероятности исходов простейшую модель исполь- зуют для общей ориентировки, даже если совершенно очевидно, что это лишь самое первое, грубое приближение. [Сказанное хорошо иллюстрируют примеры 2, (6.1), дни рождения; 2, (6.7), лифт; 2, (6.11), собирание купонов.] б) Неразличимые шары, статистика Бозе — Эйнштейна, Об- ратимся теперь к примеру 2, в), связанному с размещением трех неразличимых шаров по трем ящикам. Можно рассуждать так: невозможность различать шары не отражается на сущности физи- ческого эксперимента, и остается по-прежнему 27 исходов, хотя только 10 из них оказываются различимыми. Эти рассуждения по- казывают, что десяти точкам табл. 2 надлежит приписать следую- щие вероятности: Номер точки 1 2345678910 Вероятность Следует отметить, что по отношению к большей части приложе- ний, перечисленных в примере 2, б), такое рассуждение звучит убедительно, и это оправдывает указанный способ задания вероят- ностей, соответствующих точкам табл. 2. Исторически это рассуж- дение долгое время принималось как безусловно верное и в статис-
40 Гл. I, Пространства элементарных событий тической механике служило основанием статистики Максвелла — Больцмана для размещения г частиц (шаров) по п ячейкам (ящикам). Тем больше было удивление, когда Бозе и Эйнштейн показали, что определенные типы частиц подчиняются статистике Бозе — Эйн- штейна (подробнее см. в гл. II, 5). В рассматриваемом случае г=п=3 модель Бозе — Эйнштейна сопоставляет каждому из деся- ти элементарных событий вероятность 1/10. Этот пример показывает, что в одном и том же пространстве элементарным событиям вероятности можно приписывать по-раз- ному. Он поясняет трудное для понимания взаимное действие друг на друга теории и практики и учит нас, в частности, не надеяться особенно на априорные аргументы и быть готовыми принять новые и непредвиденные схемы. в) Бросание монеты. Для частотного истолкования постулата о равенстве вероятностей элементарных событий необходимы дан- ные о результатах проведенных экспериментов. Бросание любой настоящей монеты приводит к искаженным результатам, из-за дей- ствия не поддающихся учету факторов. Можно, однако, осущест- вить физический эксперимент, результаты которого оказываются значительно ближе к идеальной «модели бросания монеты», чем для любой настоящей монеты. Для того чтобы дать представление о случайных колебаниях (флуктуациях), которые можно ожидать, мы приводим запись результатов подобного эксперимента, соответ- ствующую 10 000 бросаний монеты. Табл. 3 содержит числа «появ- лений герба» в ста последовательных сериях, каждая из которых насчитывает сто «бросаний». Суммарное число «появлений герба» равно 4979 х). Поглядев на эту таблицу, читатель, вероятно, скажет Таблица 3 Номера испытаний Число « появлений герба» Сумма по строке ' 1— 1000 54 46 53 55 46 54 41 48 51 53 501 1001— 2000 48 46 40 53 49 49 48 54 53 45 485 2001— 3000 43 52 58 51 51 50 52 50 53 49 509 3001— 4000 58 60 54 55 50 48 47 57 52 55 536 4001— 5000 48 51 51 49 44 52 50 46 53 41 485 5001— 6000 49 50 45 52 52 48 47 47 47 51 488 6001— 7000 45 47 41 51 49 59 50 55 53 50 500 7001— 8000 53 52 46 52 44 51 48 51 46 54 497 8001— 9000 45 47 46 52 47 48 59 57 45 48 494 9001—10000 47 41 51 48 59 51 52 55 39 41 484 х) На самом деле приведены числа появления четных цифр в одном из разде- лов таблицы случайных чисел A million random digits with 100 000 normal de- viates, RAND Corporation, Glencoe, Illinois, Free Press, 1955. [Для моделирования «бросания монеты» при этом используют генераторы случайных шумов; о других методах см., например, Ермаков С. М. Метод Монте-Карло и смежные вопросы,— М.: Наука, 1975,— Перев.}
§ 7, Основные определения и соотношения 41 с неопределенным чувством: «Ну и что же?». По правде говоря, су- дить о том, в какой степени такие эмпирические данные согласуются с нашей абстрактной моделью, можно лишь при помощи достаточно развитой теории. (Между прочим, мы вернемся к этому кругу воп- росов в гл. III, 6.) ► § 7. ОСНОВНЫЕ ОПРЕДЕЛЕНИЯ И СООТНОШЕНИЯ Основное положение 1). Пусть дано дискретное пространство элементарный событий ® с точками Ei, Е2,. . . . Мы полагаем, что с каждой точкой Ej связано число, называемое вероятностью Ej и обозначаемое Р{£;}. Эти числа должны быть неотрицательны и та- ковы, что P{Ei}+P{Ea}+. . . = 1. (7.1) Заметим, что мы не исключаем возможность равенства нулю вероятностей отдельных элементарных событий. Это допущение мо- жет показаться неестественным, но оно необходимо для того, чтобы избежать осложнений. В случае дискретного пространства элемен- тарных событий равенство нулю вероятности на практике рас- сматривают как невозможность и элементарное событие, имеющее вероятность, равную нулю, можно безнаказанно изъять из прост- ранства элементарных событий. Однако часто численные значения вероятностей заранее неизвестны, и без дополнительных, порой сложных, рассуждений невозможно решить, равна или не равна нулю вероятность некоторой точки. Определение. Вероятность Р{Л} любого события А есть сумма вероятностей элементарных событий, из которых оно состоит. По формуле (7.1) вероятность всего пространства ® элемен- тарных событий равна единице: Р{©} = 1. Далее, для любого события 0<Р{Д }<1. (7.2) Рассмотрим теперь два произвольных события Л$ и Д2. Чтобы вычислить вероятность Р{Л1 иЛ2) того, что имеет место либо собы- тие At, либо событие А 2, либо оба эти события, мы должны сложить вероятности всех точек, содержащихся в Ль и всех точек, содер- жащихся в А 2, считая, однако, каждую точку по одному разу. Мы имеем поэтому Р{Л1иЛ2}^Р{Д1}+Р{Л2). (7.3) Если теперь Е — любая точка, содержащаяся и в Aj, и в Л2, то Р{£) входит два раза в правую и один раз в левую часть неравенства J) В оригинале Fundamental convention. К нему с учетом определения веро- ятности (см. ниже) по существу сводятся аксиомы Колмогорова (см. книгу А. Н. Колмогорова, цитированную на с, 23) в случае дискретного пространства элементарных событий,— Прим, перев.
' 42 Гл. I, Пространства элементарных событий (7.3). Поэтому правая часть превосходит левую на P{AiA3}, и мы получаем простую, но имеющую полезные следствия теорему. Теорема. Для любых двух событий Ai и А 2 вероятность того, что имеет место либо событие At, либо событие А2, либо оба эти собы- тия, дается формулой Р{Лi и А 2}=Р{Л 1 }+Р{Л 2} - Р{ЛiA 2}. (7.4) Если Лр42=0, т. е. если события At и Аг несовместны, то (7.4) сводится к следующему виду'. Р{Л11М2}=Р{Д1}+Р{Д2). (7.5) Пример. Монета бросается два раза. В качестве пространства элементарных событий возьмем четыре точки ГГ, ГР, РГ, РР и свяжем с каждой вероятность 1/4. Пусть At и Л2 означают соот- ветственно события «при первом бросании выпал герб» и «при вто- ром бросании выпал герб». Тогда событие At состоит из точек ГГ, ГР и событие А 2 состоит из точек РГ, ГГ. Далее событие Л10 Л2 содержит три точки ГГ, ГР, РГ, в то время как событие Л1Л2 со- стоит из единственной точки ГГ. Таким образом, Р{ЛхЛ2}=1/2+1/2—1/4=3/4. > Вероятность Р{Л1 и Л 2и . . . U Л п} осуществления хотя бы од- ного из п событий может быть вычислена по формуле, аналогичной формуле (7.4); она будет получена в гл. IV, 1. Здесь мы лишь за- метим, что рассуждения, приводящие к (7.3), пригодны в случае любого числа объединяемых событий. Таким образом, для произ- вольно взятых событий At, А 2, . . . выполняется неравенство Р{Д1иЛ211 . . .}<Р{Л1}+Р{Л2}+. .. . (7.6) В частном случае, когда события Aj, Л2, . . . попарно несовместны, Р{Л1иЛ2и ...}=Р{Л1}+Р{Л2}+. .. . (7.7) Иногда неравенство (7.6) называют неравенством Буля х). Мы исследуем сначала [в гл. II и III.— ПеревА частный случай, когда пространство элементарных событий состоит из конечного числа N точек, вероятность каждой из которых просто равна 1/М. В этом случае вероятность любого события Л равна числу точек, входящих в Л, деленному на N. В старой литературе элементарные события называли «случаями», а элементарные события, входящие в Л,— «благоприятными случаями» (благоприятными для события Л). Если все элементарные события равновероятны, то вероятность события равна отношению числа благоприятных случаев к числу х) Буль Джордж (Boole J.; 1815—1864) — английский математик и логик. Он заложил основы математической логики. Его именем названы, например, буле<- вы алгебры,— Прим, перев.
§8. Задача 43 всех возможных случаев. К сожалению, этой формулировкой неод- нократно злоупотребляли, стараясь «определить» понятие вероят- ности. Часто утверждали, что в любом конечном пространстве эле- ментарных событий вероятности этих событий должны быть равны между собой. Это не так х). При однократном бросании неправиль- ной монеты пространство элементарных событий по-прежнему со- держит всего две точки (выпадение герба и выпадение решетки), но эти элементарные события могут иметь какие угодно вероятности р и q, лишь бы было Новорожденный — либо мальчик, либо девочка, но эти две возможности не равновероятны [по много- летним наблюдениям частота рождения мальчиков несколько боль- ше 0,51; см., например, таблицы в гл. 31 книги Г. Крамера, цити- рованной на стр. 21.— Перев.]. Еще одно опровержение содержит пример 6, б). Полезность пространств с равновероятными элемен- тарными событиями проявляется в основном при изучении азартных игр и в комбинаторном анализе. § 8. ЗАДАЧИ 1. Из цифр 1, 2, 3, 4, 5 сначала выбирают одну, а затем из оставшихся че- тырех — вторую. Допустим, что все 20 возможных исходов равновероятны. Найти вероятность того, что а) в первый раз, б) во второй раз, в) оба раза будет выбрана нечетная цифра. 2. В пространстве элементарных событий примера 2, а) припишем равные вероятности всем 27 точкам. Используя обозначения примера 4, г), проверить формулу (7.4) для двух событий Лх=5х и Л2=*$2« Сколько точек входит в собы- тие 3. Рассмотрим все 24 возможные перестановки цифр 1, 2, 3, 4 и свяжем в каждой вероятность 1/24. Пусть Л/— событие, состоящее в том, что цифра i оказалась на t-м месте (t=l, 2, 3, 4). Проверить формулу (7.4). 4. Монету бросают до тех пор, пока 2 раза подряд она не выпадает одной и той же стороной. Каждому возможному исходу, при котором бросания заканчи- ваются на n-м шаге, припишем вероятность 1/2"-1. Описать пространство эле- ментарных событий. Найти вероятности следующих событий: а) опыт окончится до шестого бросания; б) потребуется четное число бросаний. 5. В пространстве элементарных событий примера 5, б) припишем каждой точке из (*), содержащей ровно k букв, вероятность 1/2л. (Иначе говоря, аа и ЪЬ имеют вероятность 1/4, асб имеет вероятность 1/8 и т. д.) а) Показать, что сумма вероятностей всех точек из (*) равна единице (в силу этого каждая из двух точек (**) имеет вероятность, равную нулю), б) Установить, что с вероятностью 5/14 победителем будет игрок а. Вероятность того, что побе- дит игрок Z?, будет такой же, но аналогичная вероятность для о равна 2/7. J) Слабость приведенного выше утверждения понимали и ранее? например, еще А. А. Марков писал: «В известных теоретических вопросах равновозможность рассматриваемых событий представляется нашему уму вполне ясно; в других мы условимся, какие именно события считать равновозможными. В практических же вопросах мы можем быть вынуждены считать равновозможными и такие со- бытия, равновозможность которых весьма сомнительна.» (Марков А. А. Исчис- ление вероятностей.— М.: ГИЗ, 1924, с. 2—3.) А. А. Марков (1856—1922) — выда- ющийся русский математик, специалист по теории чисел, теории вероятностей и математическому анализу. С 1886 г. профессор Петербургского университета| с 1890 г, академик Петербургской Академии Наук,— ПримЛ nepeef
44 Гл. I. Пространства элементарных событий в) Вероятность того, что победитель не определится до &-го тура включи- тельно, равна 1/2^~х; проверить это. 6. Видоизменить пример 5,6), допустив, что партии могут заканчиваться вничью. Описать соответствующее пространство элементарных событий. Как ввести вероятности? 7. В задаче 3 показать, что А]А2А3 а: А4 и А^Аз CZ А£. 8. Используя обозначения примера 4, г), показать, что a) SiS2Z)3 = 0; б) SiD2 С Е3; в) Е3—D2S± zd S2D±. 9. Бросают две игральные кости. Пусть А—событие, состоящее в том, что сумма очков—нечетное число, а В—событие, состоящее в том, что хотя бы на одной из костей выпала единица. Описать события АВ, Ли#* АВ'. Найти их вероятности при условии, что все 36 элементарных событий равновероятны. 10. В примере 2, ж) выяснить смысл следующих событий: а) АВС; б) 4—АВ; в) АВ'С. 11. Проверить, что в примере 2, ж) АС'с^В. 12. Бридж (см. примечание к § 1). Пусть N& где &=1, 2, 3, 4—собы- тие, состоящее в том, что игрок «Север» получил не менее k тузов. Пусть Е^ и — аналогичные события для игроков «Юг», «Восток» и «Запад». Что можно сказать о числе тузов у игрока «Запад» при осуществлении событий а) Г!; б) Л/2В2;в) г) №2-Г3;д) МММ, е) ж) (N2]JS2)EJ 13. Проверить, что в предыдущей задаче a) S3 cz S2; г) N2S2 cz 6) S3IF2 = 0; д) (2V2US2)F3 = 0; в) ^2S1E1Fi = 0; e) 14. Проверить следующие соотношения x) а) (A(J В)'— А'В'; д) (4(JB) — AB —AB'(J A'B; 6) (4|JB) — B = A—AB —AB'; e) 4'(JB' = (4B)'; в) AA = A[)A = A; ж) (AjjB) C = AC(JBC. r) (4—4B)(JB = 4|JB; 15. Найти простые выражения для событий а) (4UВ) (4UВ'); б) (4(J В) (Л'(JВ') (4(J В'); в) (4(JB) (B(J0. 16. Установить, какие из следующих соотношений правильны: a) (4UB)-C=4U(B-C); б) 4BC = 4B(CUB); в) 4(JBUC = 4U(B — 4B)U(C—40; г) 4|J В = (4 —4B)(JB; д) 4B(JBCUC4zd ABC; е) (4BUBCUC4)cz(4UBU0; ж) (4(JB) — А —В; з) 4B'Ccz4UB; и) (4 (J B(J0' =А'В'С'; к) (4(J В)' С = 4'СиВ'0 л) (4 (J В)' С = А'В'С; м) (4LW C = C-C(4U0.^ 17. Пусть 4, В, С — три произвольно выбранных события. Найти выражения для событий, состоящих в том, что из 4, В, С а) произошло только 4; б) произошли 4 и В, но С не произошло; в) все три события произошли; г) произошло хотя бы одно из этих событий; д) произошло хотя бы два события; е) произошло одно и только одно из этих событий; х) Заметим, что (4 JВ)'означает событие, противоположное событию 4 (JВ; оно не совпадает с А'ЦВ\ Аналогично (АВ)' не то же самое2 что А'В',
$ 8. Задачи 46 ж) произошло два и только два события; з) ни одно событие не произошло; и) произошло не более двух событий. 18. Объединение A двух событий может быть выражено как объединение двух несовместных событий, именно A иВ=Л (J (Л—АВ). Выразить аналогичным образом объединение трех событий А, В, С. 19. Используя результат задачи 18, доказать, что Р {Л и в и с }=Р {А }+Р {В )+Р {С} — Р {АВ }—Р {Л С }-Р {ВС }+Р {АВС }. [Эта формула является частным случаем формулы (1.5) гл. IVJ
ГЛАВА II ЭЛЕМЕНТЫ КОМБИНАТОРНОГО АНАЛИЗА В этой главе поясняются основные понятия комбинаторного анализа и развиваются соответствующие вероятностные основания; в последней части главы описываются некоторые простые аналити- ческие приемы. Для дальнейшего изучения книги не требуется глу- бокого знания комбинаторного анализа, и читатель, специально им не интересующийся, может после беглого просмотра сразу пе- рейти к главе V, продолжающей основную теоретическую линию гл. I. Лучше всего читать отдельные параграфы этой главы в связи с имеющими к ним отношение темами в последующих главах. При изучении простых азартных игр, процедур случайного вы- бора, задач о размещении и упорядочении и т. д. мы, как правило, имеем дело с конечными пространствами элементарных событий, в которых всем точкам приписываются равные вероятности. В этом случае, для того чтобы найти вероятность некоторого события А9 мы должны разделить число элементарных событий в А («благо- приятные случаи») на общее число элементарных событий («воз- можные случаи»). Подсчет числа случаев облегчается системати- ческим использованием несколоких правил, к обзору которых мы сейчас перейдем. Простота и экономия мышления могут быть достигнуты постоянным применением нескольких стандартных прие- мов, и мы будем следовать этому способу действий вместо того, что- бы описывать кратчайший вычислительный метод в каждом конк- ретном случае х). § 1. ПРЕДВАРИТЕЛЬНЫЕ СВЕДЕНИЯ Пары. Из т элементов ат и п элементов bi, , . bn можно образовать тп пар (а^, bh), содержащих по одному элементу из каждой группы. х) Интересующийся этими вопросами читатель найдет обширный материал по элементарному комбинаторному анализу, обратившись к классической книге У. Уитворта (Whitworth W. A., Choice and chance, 5th ed., London, 1901; New York, Stechert G. E., 1942), Ее дополняет задачник того же автора DCC exercises, переизданный в Нью-Йорке в 1945 г. и содержащий 700 задач с полными решения- ми. [См. также книгу Сачков В. Н. Введение в комбинаторные методы дискретной математики.— М.: Наука, 1982 и задачник Комбинаторный анализ. Задачи и упражнения/Под ред. К» А* Рыбникова,—М,: Наука, 1982*—Перев.}
§ /. Предварительные сведении 47 Доказательство. Составим из этих пар прямоугольную таблицу (наподобие таблицы умножения) с т строками и п столбцами так, чтобы пара (ah bh) стояла на пересечении /-й строки и &-го столбца. Тогда каждая пара появляется один и только один раз, и утверж- дение становится очевидным. ► Примеры, а) Дарты для бриджа (см. примечание к § 1 гл. I). В качестве множеств элементов берутся четыре масти и трина- дцать значений соответственно. Каждая карта определяется своей мастью и значением, и существует 4-13=52 таких комбинаций (карт) б) «Семипозиционные торшеры». Так называются торшеры с тре- мя обычными лампами и подсветкой, которая может устанавливать- ся на трех уровнях или вообще не использоваться. Каждая из этих четырех возможностей может комбинироваться с включением О, 1, 2 или 3 ламп. Следовательно, существует 4-4=16 возможных комбинаций, из которых одна — назовем ее (0, 0) — означает, что торшер выключен. Остается пятнадцать (а не семь) способов вклю- чения торшера. ► Комбинации. Дано nt элементов at, ..., аП1, п2 элементов ..., &п2, ..., пг элементов xir ..., хПг; число возможных комби- наций (а^, bj2, ..., Xjr), содержащих по одному элементу каждого типа, равно щ*п2-... -пг. Доказательство. Если г=2, то утверждение сводится к первому правилу. Если г=3, то рассматриваем пару (сц, bj) как элемент но- вого типа. Существует П1/г2 таких пар и п3 элементов ck. Каждая тройка (at, bj, ch) в свою очередь является парой, состоящей из (aif bj) и элемента ck; следовательно, число троек равно П1П2п3. Утверждение для любого г получается по индукции. ► Многие применения основаны на следующей переформулировке последней теоремы: при г последовательных выборах (решениях) с ровно nh возможными исходами на k-м шаге можно получить пх-п^. . .'ПГ различных результатов. Примеры, в) Классификация по многим признакам. Предполо- жим, что люди классифицируются по полу, семейному положению и профессии. Различные категории играют роль элементов. Если имеется 17 профессий, то всего будет 2-2-17=68 классов. г) В сельскохозяйственном эксперименте проверяют влияние трех различных факторов (таких, как применение удобрений, оп* рыскивание и температура). Если эти факторы могут иметь п, и г3 уровней (или концентраций) соответственно, то всего существ вует г1г2г3 комбинаций или способов воздействия. д) «Размещение шаров по ящикам» равнозначно выбору ящика для каждого шара. Для г шаров мы имеем г независимых выборовt и поэтому г шаров можно рцзм&тить в п ящиках пг различными спо^
48 Гл, IL Элементы комбинаторного анализа собами, Вспоминая пример гл. I, 2, б), мы видим, что очень многие мыслимые эксперименты с абстрактной точки зрения эквивалентны размещению шаров по ящикам. Например, рассматривая грани иг- ральной кости как «ящики», получим, что при бросании г раз иг- ральной кости имеется 6Г возможных исходов, в 5Г из которых ни разу не появилась единица. Поэтому при предположении, что все исходы равновероятны, событие «в г бросаниях не было единицы» имеет вероятность (5/6)\ Мы можем наивно полагать, что при шести бросаниях «единица должна появиться», однако вероятность этого события равна только 1—(5/6)6, т. е. меньше, чем 2/3 (ср. с приме- ром 3, б)). е) Вывешивание флагов J). Рассмотрим менее тривиальный при- мер, а именно предположим, что г флагов различных цветов выве- шиваются на п шестах в ряд. Сколькими способами это можно сделать? Мы пренебрегаем, конечно, абсолютным положением фла- га на шесте и тем обстоятельством, что число флагов на шесте прак- тически ограничено. Мы предполагаем только, что флаги на каждом шесте располагаются в определенном порядке сверху вниз. Вывешивание можно осуществить последовательным выбором места для каждого из г флагов. Для первого флага выбирается один из п шестов. Этот шест, таким образом, делится на две части, и, следовательно, имеется п+1 возможных выборов положения для второго флага. Аналогично показывается, что для третьего флага возможно п+2 выбора и т. д. Отсюда следует, что возможно п(п+ + 1)-. . .• (п+г—1) различных способов вывешивания. ► § 2. УПОРЯДОЧЕННЫЕ ВЫБОРКИ Рассмотрим множество или «генеральную совокупность» из п элементов Я£, п2, . • ап. Упорядоченной выборкой объема г, из- влеченной из данной генеральной совокупности, называется любое упорядоченное множество а71, п/2, . . а/г из г его элементов. Для наглядности можно представить себе, что элементы выбираются один за другим. В этом случае возможны две процедуры. Первая — выбор с возвращением} здесь каждое извлечение делается из полной генеральной совокупности, так что один и тот же элемент может быть выбран несколько раз. Такие выборки — упорядоченные мно- жества, в которых допускаются повторения. Вторая процедура — выбор без возвращения] здесь элемент, выбранный однажды, исклю- чают из генеральной совокупности, так что выборка превращается в упорядоченное множество без повторений. Очевидно, в этом слу- чае объем выборки г не может быть больше объема генеральной совокупности п. l) Finucan Н. М,. A teaching sequence for nHri The Math. Gazette, 48 (1964), 440-441.
§ 2, Упорядоченные выборки 49 При выборе с возвращением каждый из г элементов может быть выбран п способами, и поэтому число возможных выборок будет пг\ это получается из последней теоремы при ni=n2=- . .=п. При вы- боре без возвращения мы имеем п возможных исходов для первого элемента, но только п—1 для второго, п—2 для третьего и т. д.; таким образом, всего существует п(п—1)-. . . • (п—г+1) выборок. Произведения такого типа появляются очень часто, поэтому удобно ввести обозначение х) (n)r=n(n—1)>. . ..(п-г+1). (2.1) Ясно, что (п)г=0 для таких целых г и п, что г>/г. Таким образом, мы получили следующую теорему. Теорема. Для генеральной совокупности из п элементов и фиксиро- ванного объема выборки г существует пг различных выборок с воз- вращением и (п)г выборок без возвращения. Отметим частный случай, когда г=п. При выборе без возвраще- ния выборка объема п включает всю генеральную совокупность и представляет собой переупорядочение (или перестановку) ее эле- ментов. Таким образом, п элементов а^ . . ., ап могут быть упо- рядочены (п)п=п* (п—1)*...‘2*1 различными способами. Вместо (п)п мы пишем п\, что является более употребительным обозначе- нием. Мы видим, что наша теорема имеет такое следствие. Следствие. Число различных перестановок из п элементов равно п\=п(п—\)>. . .‘2-1. (2.2) Примеры, а) Три человека Л, В и С составляют упорядоченную выборку из генеральной совокупности людей. Их дни рождения есть выборка из генеральной совокупности всех календарных дней, их возрасты есть выборка, составленная из трех чисел. б) Если под «словом из десяти букв» понимать (возможно, бес- смысленную) последовательность из десяти букв, то такое слово представляет собой выборку из генеральной совокупности, состоя- щей из 26 букв * 2). Поскольку повторения разрешаются, существует 2610 таких слов. С другой стороны, в типографии буквы существуют не только умозрительно, но также физически в виде литер. Для простоты предположим, что имеется ровно 1000 литер каждой бук- вы. Чтобы набрать слово, наборщик должен выбрать десять литер, и здесь повторения исключаются. Поэтому слово может быть на- брано (26000)ю различными способами. Практически это число мало отличается от 2600010 и превышает 1044. в) Мистер и миссис Смит образуют выборку объема два из ге- неральной совокупности всех людей; в то же время они образуют 0 Обозначение (п)г не общепринято, но мы будем систематически исполь- аовать его в этой книге (даже когда п не является целым числом). 2) Речь идет об английском алфавиту содержащем 26 букв,— Прим, перев*
50 Гл. II. Элементы комбинаторного анализа выборку единичного объема из генеральной совокупности всех супружеских пар. Этот пример показывает, что объем выборки оп- ределяется только относительно данной генеральной совокупности. Бросание монеты г раз является одним из способов получения вы- борки объема г из генеральной совокупности, состоящей из двух букв Г и Р. Это же упорядоченное множество из г букв Г и Р пред- ставляет собой элементарное событие в пространстве, соответствую- щем бросанию монеты г раз. / г) Об упорядочении и выборе на практике. Когда путем выбора исследуется число курящих в некоторой генеральной совокупности людей, может интуитивно показаться, что порядок внутри выборки не имеет значения, и поэтому начинающий склонен считать такие выборки неупорядоченными. Однако выводы при анализе выборки возможны лишь на основе некоторых вероятностных предполо- жений, для чего необходимо иметь подходящую модель для мысли- мого эксперимента формирования выборки. Такой эксперимент, очевидно, включает действия, исходы которых можно отличить один от другого, т. е. они как-то помечаются. Для теоретических целей в качестве меток проще всего использовать целые числа, что приводит к упорядочению выборки. На практике могут быть предпочтительнее другие процедуры, но даже указание «третий парень, которого Джоунз интервьюировал во вторник» является меткой. Иначе говоря даже в том случае, когда порядок внутри выборок можно в конечном счете игнорировать, мыслимый экспе- римент включает упорядоченные выборки, и мы увидим, что это приводит к надлежащему приписыванию вероятностей. ► Последовательное извлечение г элементов из генеральной сово- купности объема п является экспериментом, возможные исходы которого представляют собой выборки объема г. Их число равно пг или (п)г в зависимости от того, как производится выбор: с возвраще- нием или без возвращения. В каждом из этих случаев наш мысли- мый эксперимент описывается пространством элементарных собы- тий, в котором каждая отдельная точка означает выборку объема г, До сих пор мы не говорили о вероятностях, связанных с выбор* ками. Обычно мы будем приписывать всем им равные вероятности и говорить о случайной выборке. Слово «случайный» не определено строго, но применительно к выборкам или выбору оно имеет единст- венное значение. Использование термина случайный выбор предпо- лагает равновероятность всех исходов. Подобным образом, когда мы говорим о случайной выборке фиксированного объема г, прилага- тельное «случайная» означает, что все возможные выборки имеют одну и ту же вероятность, а именно при выборе с возвращением и 1/(п)г при выборе без возвращения, где п — объем генеральной совокупности, из которой производится выбор. Если п велико, а г относительно мало, то отношение (п)г!пг близко к единице. Это дает основание ожидать, что для больших генеральных совокупностей rfj
§3. Примеры 51 относительно малых выборок оба способа выбора практически эк- вивалентны (см. задачи 1 и 2 § 11, а также задачу 35 гл. VI, 10). Мы ввели терминологию, взятую из практики, но ничего не ска- зали о применимости наших моделей случайного выбора к действи- тельности. Бросание монеты или игральной кости и аналогичные действия можно рассматривать как эксперименты по практиче- скому осуществлению случайного выбора с возвращением, и наши вероятности численно близки к частотам, наблюдаемым в длинной серии экспериментов, хотя полностью симметричных монет или иг- ральных костей не существует. Типичным примером случайного выбора без возвращения является последовательное вытаскивание карт из перетасованной колоды (предполагается, что колода пере- тасована гораздо тщательнее, чем это делается обычно). При выбо- ре из генеральной совокупности людей статистик сталкивается со значительными и часто непредвиденными трудностями, и горький опыт показывает, что трудно получить даже грубое подобие слу- чайности. Упражнение. При выборе без возвращения вероятность того, что любой фиксированный элемент генеральной совокупности содержится в случайной выборке объема г, равна 1 — (Z2 — I )r/(n) r = 1 — (П — г)/П = Г ]п. При выборе с возвращением вероятность того, что некоторый элемент входит котя бы в одну выборку, равна 1 — (1 — 1/п)г. § 3. ПРИМЕРЫ Примеры этого параграфа представляют собой частные случаи следующей задачи. Из генеральной совокупности, содержащей п элементов, извлекается случайная выборка с возвращением объема г, Найдем вероятность события, состоящего в том, что ни один эле- мент не появляется дважды, т. е. что наша выборка могла быть так- же получена выбором без возвращения. Последняя теорема показы- вает, что всего существует пг различных выборок, из которых (п)г удовлетворяют указанному условию. Предполагая, что все исходы имеют одинаковую вероятность, заключаем, что вероятность от- сутствия повторения в нашей выборке равна Р = (и)г/пг = п(п—1)-... •(п—г 4* 1)/пг. (3.1) Следующие ниже конкретные интерпретации этой формулы демон- стрируют некоторые удивительные явления. а) Случайно выбранные числа. Пусть генеральная совокупность состоит из десяти цифр 0, 1, . . ., 9. Каждая последовательность из пяти цифр представляет собой выборку объема г=5, и мы пред- положим, что каждая такая упорядоченная последовательность имеет вероятность 10"Л В соответствии с (3.1) вероятность того, Что все пять последовательных случайных цифр различны, равна (Ю)5-10~&=0.3024,
52 Гл. IL Элементы комбинаторного анализа Мы интуитивно ожидаем, что в больших математических таб- лицах с большим числом десятичных знаков последние пять цифр будут обладать многими свойствами случайных чисел (в обычных логарифмических и многих других таблицах табличные разности примерно постоянны, и поэтому последние цифры изменяются регулярным образом). В качестве эксперимента были выбраны шестнадцатизначные таблицы х) и было найдено количество чисел, в которых последние пять цифр различны. В первых двенадцати группах по сто чисел каждая количество чисел с различными по- следними пятью цифрами составило 30, 27, 30, 34, 26, 32, 37, 36, 26, 31, 36, 32 соответственно. Теория малых выборок показывает, что величина флуктуаций хорошо согласуется с ожидаемыми преде- лами. Средняя частота равна 0,3142 и довольно близка к теорети- ческой вероятности 0,3024 (см. пример гл. VII, 4, ж)). Далее рассмотрим число е=2,71828 ... .Из первых 800 деся- тичных знаков ?) образуем 160 групп по 5 цифр, а группы объе- диним в 16 «связок» по 10 групп в каждой. Число групп, в ко- торых все пять цифр различны, в последовательных «связках» рав- но соответственно 3, 1,3, 4, 4, 1,4,4, 4, 2, 3, 1,5, 4,6, 3. Частоты также колеблются около значения 0,3024, и теория малых выборок подтверждает, что величины флуктуаций не превосходят ожидаемых. Средняя частота нашего события в 160 группах равна 52/160=0,325 и достаточно близка к р=0,3024. б) Если п шаров случайным образом размещаются в п ящиках, то вероятность того, что каждый ящик занят, равна п\!пп. Это поразительно мало: для п=7 она равна только 0,00612... . Отсюда следует, например, что если в некотором городе каждую неделю про- исходит семь автомобильных катастроф, то (в предположении, что все возможные распределения по дням недели равновероятны) практически все недели будут содержать дни, в которые произошло не менее двух катастроф, и в среднем только в одной неделе из 165 катастрофы будут равномерно распределены по дням. Этот пример показывает неожиданное свойство чистой случайности. (Все воз- можные расположения семи шаров в семи ящиках указаны в табл. 1 § 5. Вероятность того, что два или более ящиков останутся пустыми. *) Как было указано в предыдущем издании книги, здесь речь идет о следую- щем издании: Tables of probability function, v. I, Nat. Bureau of Standards, 1941, [Имеется перевод: Таблицы вероятностных функций. — 2-е стереотип, изд.— Мд ВЦ АН СССР, 1970.] — Прим, перев. 2) По поводу более полных исследований, проведенных с помощью современ- ных ЭВМ, см. Stoneham R. G., A study of 60 000 digits of the transcendental e, Amer. Math. Monthly, 72 (1965), 483—500 и Pathria R. K-, A statistical study of the first 10 000 digits of л, Mathematics of Computation^ 16 (1962), 188—197. [См. также Shanks D.,Wrench J. W., Jr., Calculation of л to 100 000 decimals, Mathe* matics Computation, 16 (1962), 76—99,— Перев.\
§ 3. Примеры 53 составляет около 0,87.) Для 6 вероятность п\п~п равна 0,01543.... Это показывает, сколь маловероятно, что при шести бросаниях правильной игральной кости выпадут все грани. (Вероятность того, что определенная грань не выпадет, близка к 1/3; см. пример 1,Д).) в) Лифт. Лифт начинает движение с г=7 пассажирами и оста- навливается на п=10 этажах. Какова вероятность р того, что ника- кие два пассажира не выйдут на одном и том же этаже? Для строгой постановки задачи предположим, что все возможные комбинации выхода пассажиров из лифта равновероятны (что является довольно грубым приближением). Тогда р=10-?(10)7= (10-9-8-7-6-5-4)-10~7=0,06048. Если такое событие однажды произошло, то нужно считать это исключительным явлением и можно ставить примерно 300 против 1, что подобное не повторится (ср. с ответом к задаче 43 § 10). г) Дни рождения. Дни рождения г человек образуют выборку объема г из совокупности всех дней года. Годы не одинаковы по продолжительности, и мы знаем, что рождаемость в течение года не остается постоянной. Однако в первом приближении можно считать, что в году 365 дней, и рассматривать случайный выбор людей вместо случайного выбора дней рождения. В этих предположениях, используя равенство (3.1), получаем, что вероятность того, что все г дней рождения различны, равна1) -w)- <3'2» Численные результаты снова удивительны. Так, для г=23 человек мы имеем р<1/2, т. е. для 23 человек вероятность того, что по крайней мере у двух из них дни рождения совпадают, превосходит 1/2. Формула (3.2) кажется громоздкой, но для р легко получить хорошее численное приближение. Если г мало, можно пренебречь перекрестными произведениями 2) и получить в первом приближе- нии 3) J 1+2+«*» + (^—О J Г (Г—1) zg пч Зб5 1 730 . Для г= 10 точное значение р=0,883..., тогда как (3.3) дает прибли- жение 0,877. Для больших 4) г мы получим гораздо более точное приближение, х) См. von Mises R., Uber Aufteilungs- und Besetzungs-Wahrscheinlichkeiten, Revue de la Faculte des Sciences de 1’Universite d’Istanbul, N. S., 4 (1938—1939)- 145-163. 2) To есть членами вида (i/365)(/7365), (j/365)(//365)(^/365) и t. д.— Прим, перев. 3) Знак « означает, что равенство только приближенное. Произведения вида (3.2) встречаются часто, и описываемый метод приближения широко применяется. 4) Точнее говоря, для г, больших, чем рассматривавшиеся выше, но малых по сравнению с числом дней в году,— Прим, перев,
54 Гл. II. Элементы комбинаторного анализа используя логарифмы. Для малых положительных х log(1— ж—х, и, таким образом, из (3.2) имеем log^-l+2+..^ + ^-1) = r(r-l) 730 * (3.4) Для г=30 это приводит к приближенному значению 0,3037, в то время как точное значение р=0,294. Для г^40 погрешность в (3.4) не превосходит 0,08 (к этим вопросам мы вернемся в § 7; см. также ответ к задаче 44 § 10). § 4. ПОДМНОЖЕСТВА И РАЗБИЕНИЯ Как и ранее, будем использовать термин генеральная совокупность объема п для обозначения множества из п элементов безотноситель- но к их порядку. Две генеральные совокупности считаются различ- ными только тогда, когда одна из них содержит элемент, не содер- жащийся в другой. Рассмотрим подмножество объема г из заданной генеральной совокупности, состоящей из п элементов. Произвольная нумерация элементов этого подмножества превращает его в ’ упорядоченную выборку объема г, и обратно, каждая такая выборка может быть получена указанным путем. Так как г элементов можно занумеро- вать г\ различными способами, отсюда следует, что число упорядо- ченных выборок объема г в г! раз больше, чем число подмножеств объема г. Поэтому число подмножеств объема г равно (п)г/г!. Выра- жения такого вида известны как биномиальные коэффициенты и обычно обозначаются так: /п\ Wr п (п—1).....(п-г-|-1) Таким образом, доказана следующая теорема. Теорема 1. Генеральная совокупность из п элементов имеет различных подмножеств объема г^.п\ Иначе говоря, подмножество из г элементов может быть выбрано различными способами. Такое подмножество однозначно опре- деляется п—г элементами, не принадлежащими ему и образующими подмножество объема п—г. Отсюда следует, что подмножеств объема п—г существует ровно столько же, сколько и подмножеств объема г, и, следовательно, для должно быть f п \ \n-rj* п г (4.2)
§4, Подмножества и разбиения 5$ Для того чтобы непосредственно доказать (4.2), заметим, что би- номиальный коэффициент (4.1) можно записать в виде п\ я! Г ) ~ г! (я—г)! (для этого достаточно умножить числитель и знаменатель (4.1) на (п—г)!). Заметим, что для г = 0 левая часть (4.2) не определена, а правая определена. Для того чтобы (4.2) было справедливо для всех целых г, таких, что 0 г п, мы положим и (п)0=1, (J)=l, 01 = 1 (4.4) Примеры.; а) Бридж и покер (см. примечание к § 1 гл. I). Поря- /52\ док карт игрока несуществен, и, следовательно, имеется ([3) = 1=635013 559600 различных комбинаций карт у одного игрока /52 \ при игре в бридж и ( 5 ) = 2598960 при игре в покер. Найдем вероятность х того, что при игре в покер фиксированный игрок имеет пять различных по значению карт. Значения карт могут быть выбраны ^5) способами, и для каждого значения мы свободны в выборе любой из четырех мастей. Отсюда следует, что x=t &4'\.5,/\.5) » что приблизительно равно 0,5071. Для бриджа /52\-1 вероятность тринадцати различных значении карт равна 41? I jg 1 , или приблизительно 0,0001057. б) Каждый из 50 штатов представлен двумя сенаторами. Рас- смотрим события, состоящие в том, что в комитете из 50 случайно выбранных сенаторов: 1) представлен данный штат, 2) представлены все штаты. В первом случае проще найти вероятность q противоположного события, а именно что данный штат не представлен. Всего имеется 100 сенаторов и 98 из них не из данного штата. Следовательно, /98\/100\-1 50-49 п ол-тлт 9 = (.50Д50; =кхГ99 = 0’24747- * * • Далее, из теоремы § 2 следует, что комитет, содержащий по одному сенатору из каждого штата, может быть образован 25° различными способами. Поэтому вероятность того, что все штаты представлены /100V11 в комитете, равна р=*2?°( 59 I . Используя формулу Стирлинга (см. § 9), можно показать, что р са К2л-5-2“5° « 4,126- 10-w. в) Задача о размещении. Еще раз рассмотрим случайное раз-
56 Гл. II. Элементы комбинаторного анализа мещение г шаров по п ящикам (т. е. каждое из пг возможный размещений имеет вероятность п~г). Для того чтобы найти веро- ятность рк того, что фиксированный ящик содержит ровно k шаров, заметим, что k шаров можно выбрать способами, а ос* тавшиеся г—k шаров можно разместить в оставшихся п—1 ящи- ках (п—1)Г-А способами. Отсюда следует, что /г\ 1 , . ( г\ 1 /, 1 у-л .. -х Рк~\k) * nr' (n— ”\k)’ ~ ~п) ‘ (4’5) Это частный случай так называемого биномиального распределения, которое будет изучено в гл. VI. Численные значения будут приве, дены в табл. 3 гл. IV. ► Различиемежду различимыми и неразличимыми элементами име- ет сходство с отношением между подмножеством и соответствующей упорядоченной выборкой. Вычеркивая все индексы в упорядочен- ной совокупности (или группе) из г элементов «!,..., аг, получаем совокупность г неразличимых букв. Обратно, произвольным об- разом занумеровав г неразличимых букв, получим упорядоченное множество аг, . . ., аТ. Эта процедура дает г! различных наборов при условии, разумеется, что любая перестановка и ак производит переупорядочение. Следующие примеры показывают, как этот принцип можно распространить на ситуации, когда элементы ак лишь частично являются неразличимыми. Примеры, г) Флаги одного или двух цветов. В примере 1, е) было показано, что г флагов можно вывесить на п шестах Af=n(«+l)x X... X (n+r—1) различными способами. Теперь мы рассмотрим ту же задачу для флагов одного цвета (рассматриваемых как неразли- чимые). Занумеровав флаги при таком способе вывешивания, полу- чим ровно rl способов вывешивания г различимых флагов, и, сле- довательно, г флагов одного цвета можно вывесить N 1г\ способами. Предположим, далее, что р флагов красные (и неразличимые между собой) и q — синие (где p+q—г). Легко видеть, что каждый способ вывешивания г занумерованных флагов может быть получен нумерованием красных флагов от 1 до р и синих флагов — от р+1 до p+q. Отсюда следует, что число различных способов вывешива- ния теперь равно N/(plq\). д) Последовательности, содержащие два типа элементов. Рас- смотрим число последовательностей длины p+q, состоящих из р букв альфа и q букв бета. Занумеровав альфы от 1 до р и беты от р+1 до p+q, получим упорядоченную последовательность из p+q различимых элементов. Таких последовательностей имеется (p+q)l, и ровно р!^! среди них соответствуют одному и тому же порядку альф и бет. Таким образом, р альф и q бет можно расположить
g 4. Подмножества и разбиения 67 ровно (р+<7)! (Р + Я\_( р+я\ pW \ Р / \ <7 / различимыми способами. . Тот же самый результат непосредственно следует из теоремы 1 и того факта, что все расположения р альф и q бет могут быть полу- чены выбором р из p+q возможных мест и помещением на эти места альф. е) Число кратчайших путей (составленных из сторон клеток шахматной доски), соединяющих нижний левый и верхний правый углы шахматной доски, равно ( о ) = 12 870. ► (4.7) п—G—г2 Теорема 2. Пусть г±, гh — целые числа, такие, что Г1+г2+. . .+rh-=n, r^Q. (4.6) Число способов, которыми генеральную совокупность из п элементов можно разделить на k упорядоченных частей (разбить на k под- множеств), из которых первая содержит г± элементов, вторая г$ элементов и т. д., равно _____п!_____ гх! г2Ь ... •/>! * (Числа (4.7) называются полиномиальными коэффициентами.) Отметим, что порядок подмножеств существен в том смысле, что г2—3) и (Г1?=3, г2—2) представляют собой разные разбиения; однако игнорируется порядок внутри групп. Отметим также, что 0! = 1, так что обращение гг в нуль не влияет на формулу (4.7). Так как Гг?=О допускается, п элементов разбиваются на k или менее под- множеств. Случай rz>0 разбиения ровно на k подмножеств рассмат- ривается в задаче 7 § 11. Доказательство. Повторное использование (4.3) показывает, что число (4.7) можно переписать в виде п—г±— ... ~rk_2\ /л оч \ г /Х r м г Г---------------а г п 2 ). (4.8) \г1/ \ G / \ / \ ) С другой стороны, для того, чтобы осуществить требуемое разбие- ние, мы должны сначала выбрать п элементов из данных п; из ос- тавшихся п—Г1 элементов мы выбираем вторую группу размера и т. д. После образования (k—1)-й группы остается п—1\—г2—. . .— —rh-i—fh элементов, образующих последнюю группу. Мы заключа- ем, что (4.8) на самом деле выражает число способов, которыми мо- жет быть выполнена операция разбиения. ► Примеры, ж) Бридж. При этой игре 52 карты делятся на четыре равные группы, и поэтому число различных раскладов равно 52! х д
58 Гл. II. Элементы комбинаторного анализа X (13!)~4= (5,36...) • 1028. Найдем теперь вероятность того, что каж- дый игрок имеет туза. Четыре туза можно упорядочить 4! =24 спосо- бами, и каждый порядок представляет одну возможность получения одного туза каждым игроком. Оставшиеся 48 карт можно распреде- лить (48!)-(12!)”4 способами. Следовательно, искомая вероятность равна 24-48!-(13)4/52!=0,105... . з) Игральные кости. В результате бросания двенадцати играль- ных костей может быть 612 различных исходов, каждому из которых мы приписываем одинаковую вероятность. Событие, состоящее в том, что каждая грань появляется дважды, может осуществиться столькими способами, сколькими двенадцать костей можно разбить на шесть групп по две в каждой. Следовательно, вероятность этого события есть 12!/(26’612)=0,003438... . § 5*). ПРИЛОЖЕНИЕ К ЗАДАЧАМ О РАЗМЕЩЕНИИ Примеры гл. I, 2 показывают широкую применимость модели случайного размещения г шаров по п ящикам. Во многих ситуациях необходимо считать шары неразличимыми. Например, в статисти- ческих исследованиях распределения автомобильных катастроф по дням недели или дней рождения по дням года интересуются лишь числом событий, а не ими самими. Далее, бросание г игральных костей эквивалентно размещению г шаров в п=6 ящиках. Хотя воз- можно следить за г отдельными результатами, обычно предпочи- тают указывать число единиц, двоек и т. д. В таких случаях мы можем по-прежнему предполагать шары занумерованными, но со- средоточить внимание на событиях, не зависящих от нумерации. Такое событие полностью описывается числами заполнения г19 Пу . . .,гп, где rk означает число шаров в k-м ящике. Каждый набор из п целых чисел, удовлетворяющих соотношениям Г1+г2+. . .+гп^=г, (5.1) описывает возможную комбинацию чисел заполнения. В случае неразличимых шаров два размещения различимы только тогдау когда соответствующие наборы (ri, . . гп) не одинаковы. Докажем те- перь следующую лемму. Лемма, (i) Число различимых размещений (т. е. число различных решений уравнения (5.1)) равно1) _/ra + r-l\_/n + r П г П—1 /• (и) Число различимых размещенийу при которых ни один ящик fr—ц не остается пустым у равно 1п____। ). *) Материал этого параграфа полезен и нагляден, но не будет непосредст- венно использоваться в дальнейшем. Частный случай г=100, п=4 был использован в примере гл» If 2t д).
§ 5, Приложение к задачам о размещении 59 Доказательство. Обозначим шары звездочками и изобразим п ящиков в виде п промежутков между п+\ вертикальными черточ- ками. Например, |***|*||||****| используется для обозначения раз- мещения г—8 шаров в п=6 ящиках так, что эти ящики содержат соответственно 3, 1,0, 0, 0, 4 шаров. При таком обозначении в на- чале и в конце обязательно стоят черточки, но остальные п—1 чер- точек и г звездочек могут быть расположены в произвольном по- рядке. Отсюда вытекает, что число различимых размещений равно числу способов выбора г мест из пА~г—1, а именно Аг,п. Условие, что ни один из ящиков не оказался пустым, означает, что нет двух стоящих рядом черточек. Между г звездочками име- ются г—1 промежутков, в п—1 из которых помещено по черточке; таким образом, мы имеем____j ^выборов, и утверждение доказано. Примеры, а) Существует ( 5 ) различимых исходов бросания г неразличимых игральных костей. б) Частные производные. Частные производные порядка г ана- литической функции f (xt, ..х„) от п переменных не зависят от порядка дифференцирования, а зависят только от того, сколько раз функция дифференцируется по каждому переменному. Таким образом, каждое переменное играет роль ящика, и, следовательно, /п-4-r—1\ в этом случае существует I ' ) различных частных производ- ных порядка г. Функция трех переменных имеет пятнадцать про- изводных четвертого порядка и 21 производную пятого порядка. > Рассмотрим теперь п фиксированных целых чисел, удовлетво- ряющих (5.1). Число размещений г шаров по п ящикам, при которых в ящиках содержится соответственно rj.....гп шаров, дается тео- ремой 2 § 4. Предполагая, что все пг возможных размещений равно- вероятны, получаем, что вероятность такого заполнения равна [г!/(гх!г2!... .тл!)]п- (5.3) Такое распределение вероятностей было использовано во всех упоминавшихся до сих пор приложениях, и считалось само собой разумеющимся, что это использование присуще интуитивному по- нятию случайности. Никакое альтернативное распределение, ос- нованное на вероятностных или интуитивных соображениях, даже не предлагалось. Поэтому большой методологический интерес пред- ставляет тот факт, что опыт заставил физиков заменить распреде- ление (5.3) другими, которые вначале противоречили интуиции. Это будет обсуждено в следующем разделе. В физике (5.3) известно как распределение Максвелла — Больцмана. В ряде случаев необходимо пойти дальше и рассматривать сами ящики как неразличимые: этим достигается то, что порядок чисел заполнения становится
60 Гл. II» Элементы комбинаторного анализа несущественным. Следующий пример поясняет стандартный метод решения полу- чающихся при этом задач. Пример, в) Размещения г=7 шаров по п=7 ящикам (ящики можно интер- претировать как дни недели, а шары как телефонные звонки, письма, происше- ствия и т. д.). Для определенности рассмотрим размещения с числами заполнения 2, 2, 1, 1, 1, 0, 0, расположенными в произвольном порядке. Эти семь чисел запол- нения порождают разбиение семи ящиков натри подмножества (категории), сос- тоящие соответственно из двух ящиков, содержащих по два шара, трех ящиков, содержащих по одному шару, и двух пустых ящиков. Такое разбиение на три группы объема 2, 3 и 2 может быть выполнено 71/ (2! *3! -2!) способами. Каждому отдельному сопоставлению чисел заполнения семи ящикам соответствует 7!/ (2! - 2! • 1! • 1! • 1! • 0! -0!)=7!/(2! *2!) различных распределений г—7 шаров по семи ящикам. Таким образом, общее число размещений, таких, что числа заполнения совпадают с числами 2, 2, 1, 1, 1, 0, 0, расположенными в определенном порядке, равно [7!/(2! 3! 2!)] [71/(2! 2!)]. (5.4) Отметим, что этот результат был получен двойным применением формулы (4.7), а именно и к шарам, и к ящикам. Тот же самый результат можно было бы получить й переформулировать многими способами, однако настоящий метод обеспечива- ет самый простой путь решения разнообразных задач (см. задачи 43—45 § 10). В табл. 1 приведены числа, аналогичные (5.4), и вероятности для всех возможных наборов чисел заполнения в случае г=п=7, Таблица 1 Случайное размещение 7 шаров по 7 ящикам Числа заполнения Число размещений равно 71X71, деленному на Вероятность (число размещений, деленное на 77) 1, 1, 1, 1> Ь 1, 1 71X11 0,006 120 2, 1,1, 1, 1, 1, 0 51x21 0,128518 2, 2, 1, 1, 1, 0, 0 2! 3121x2121 0,321295 2, 2, 2, 1, 0, 0, 0 3131x212121 0,107 098 3, 1, 1, 1, 1, 0, 0 4121X31 0,107 098 3, 2, 1, 1, 0, 0я 0 2131X3121 0,214 197 3, 2, 2, 0, 0, 0, 0 2141x312121 0,026 775 3, 3, 1, 0, 0, 0, 0 2141X313! 0,017 850 4, 1, 1, 1, 0, 0, 0 3131X4! 0,035 699 4, 2, 1, 0, 0, 0, 0 41X412! 0,026 775 4, 3, 0, 0, 0, 0, 0 51X413! 0,001 785 5, 1, 1, 0, 0, 0, 0 2141x5! 0,005 355 5, 2, 0, 0, 0, 0, 0 51X512! 0,001 071 6, 1, 0, 0, 0, 0, 0 51X6! 0,000 357 7, 0, 0, 0, 0, 0, 0 61X7! 0,000 008 а. Статистика Бозе — Эйнштейна и Ферми — Дирака Рассмотрим механическую систему, состоящую из г неразличи- мых частиц. В статистической механике обычно разбивают фазовое пространство на большое число п малых областей или ячеек, так
§ 5. Приложение к задам о размещении 61 что каждая частица приписывается ровно одной ячейке. В резуль- тате состояние всей системы описывается как случайное размеще- ние г частиц по п ячейкам. На первый взгляд кажется, что (во вся- ком случае при подходящем выборе п ячеек) все пг размещений бу- дут равновероятны. Если это так, то физики говорят о статистике Максвелла — Больцмана (термин «статистика» используется здесь в смысле, специфическом для физики). Делались многочисленные попытки доказать, что физические частицы ведут себя в соответст- вии со статистикой Максвелла — Больцмана, однако современная теория, вне сомнения, показала, что эта статистика не применима ни к каким известным частицам; ни в одном случае все пг разме- щений не являются примерно равновероятными. Были введены две различные вероятностные модели, каждая из которых удовлетво- рительно описывает поведение некоторого класса частиц. Достоин- ства конкретной модели зависят от успешности ее применения. Ни одна из них не претендует на универсальность, и не исключено, что когда-нибудь для некоторого класса частиц будет введена новая модель. Вспомним, что здесь мы имели дело только с неразличимыми частицами. Мы имеем г частиц и п ячеек. В статистике Бозе — Эйнштейна рассматриваются только различимые размещения, и каждому из них приписывается вероятность \1АТ,п> где Агп оп- ределяется формулой (5.2). В статистической механике показано, что это предположение справедливо для фотонов, атомных ядер и атомов, содержащих четное число элементарных частиц *). Для описания других частиц должно быть введено третье возможное распределение вероятностей. Статистика Ферми — Дирака ос- нована на следующих предположениях: 1) в одной ячейке не могут находиться две или более частиц и 2) все различимые размещения, удовлетворяющие первому условию, имеют одинаковую вероят- ность. Для выполнения первого предприятия необходимо, чтобы Тогда размещение полностью описывается указанием того, какие из п ячеек содержат частицу, и, так как существует г частиц, соответствующие ячейки могут быть выбраны способами. Сле- „ (п\ довательно, в статистике Ферми — Дирака существует ( г) воз- можных размещений, каждое из которых имеет вероятность Эта модель применима к электронам, нейтронам и протонам. Здесь мы имеем поучительный пример невозможности выбора и обосно- вания вероятностной модели на основании априорных соображений. Действительно, нет оснований говорить, что фотон и протон не под- чиняются одним и тем же вероятностным законам. (Существенные *) См. Margenau Н., Murphy G. М., The mathematics of physics and chemistry, New York, Van Nostrand, 1943, Ch, 12, n\“®. rj
62 Гл. II. Элементы комбинаторного анализа различия между статистиками Максвелла — Больцмана и Бозе — Эйнштейна обсуждаются в задачах 14—19 §11.) Подведем итог: вероятность того, что ячейки с номерами 1, 2, ...» п содержат г±, г^, . . ., гп частиц соответственно (где гх+ +. . .+гп==г), дается формулой (5.3) в случае статистики Макс- велла— Больцмана; она равна \!АГ п в случае статистики Бозе — (п\~* Эйнштейна, и при условии, что каждое г; равно 0 или 1 * равна ( r 1 в случае статистики Ферми — Дирака. Примеры, а) Пусть п = 5, г = 3. Размещение | * |—| я-1 * |—| имеет вероятность 6/125, 1/35 или 1/10 в зависимости от того, исполь- зуется ли статистика Максвелла—Больцмана, Бозе—Эйнштейна или Ферми—Дирака. Смотри также пример гл. 1,6,6). б) Опечатки. Книга содержит п символов (букв), г из которых являются опечатками. Распределение опечаток соответствует рас- пределению г частиц по п ячейкам, причем в каждой ячейке не мо- жет содержаться больше одной частицы. Поэтому естественно пред- положить, что приближенно для опечаток имеет место статистика Ферми — Дирака. (См. задачу 38 § 10.) б. Применения к сериям Рассмотрим некоторую упорядоченную последовательность, состоящую из элементов двух типов. Отрезок этой последовательности, состоящий из однотип- ных элементов и ограниченный с обеих сторон элементами другого типа, называ- ется серией. Например, последовательность ааофааРРРа начинается серией альф длиной 3, за которой следуют серии длиной 1, 2, 3, 1 соответственно. Серии из альф и бет чередуются так, что общее число серий всегда равно числу пар стоящих рядом разнотипных элементов плюс единица. Примеры применений.- Теория серий имеет многочисленные применения в статистике, однако главным образом она используется в задачах проверки слу- чайности и однородности. а) При проверке случайности задача состоит в том, чтобы решить, свойственна ли данному наблюдению случайность или в его основе лежат определенные за- кономерности. В качестве простого примера предположим, что наблюдениег) привело к следующему распределению свободных и занятых мест в кафе: СЗССЗСССЗСССЗСЗС. Заметим, что никакие два соседних места не заняты. Может ли это быть случайным? Из пяти занятых и одиннадцати свободных мест можно получить не более одиннадцати серий и в данном наблюдении получено именно такое их число. Позже будет показано, что если бы все варианты выбора ^ест пятью посетителями были равновероятны, то вероятность одиннадцати серий была бы равна 0,0578... . Столь малая вероятность вселяет подозрение, что имеет место тенденция к умышленному разделению. Это подозрение не может быть дока- вано статистическими методами, но дальнейшее подтверждение этого может быть получено в результате последующих наблюдений. Если кафе часто посещается семьями, то должна быть тенденция занимать соседние места, и это должно при- вести к относительно малому числу серий. Аналогично подсчет серий мальчиков и девочек, сидящих в классе, может обнаружить перемешивание, большее или меньшее случайного. Неправдоподобные расположения дают ключ к пониманию х) Swed F. S., Eisenhart С., Tables for testing randomness of grouping in a Sequence of alternatives, Ann. Math. Statist., 14 (1943), 66—87»
§ 6. Гипергеометрическое распределение 63 вызывающих их причин: избыток серий указывает на сильное перемешивание* недостаток — на сильную группировку. Конечно, эти заключения нельзя считать надежным доказательством, однако существующие эффективные статистические методы позволяют свести к минимуму риск сделать неверные выводы. Теория серий, как показал Шухарт, оказывается полезной при контроле ка- чества продукции. Изготовленные шайбы могут различаться по толщине. Длин- ные серии толстых шайб указывают на возможные неполадки в производственном процессе и заставляют устранять причины; таким образом предупреждается появ- ление брака и достигается большая однородность изготовляемой продукции* В полевых биологических экспериментах подсчитывают последовательности здоровых и больных растений, и длинные серии последних заставляют подозре- вать заражение. Метеоролог следит за чередованием сухих и влажных месяцев x)t чтобы найти ключ к разгадке закономерностей установления погоды. б) Для понимания типичных задач проверки однородности предположим, что на двух группах пациентов испытываются два вида лекарств или что мы интересуемся сравнительной эффективностью двух методов (в медицине, сель- ском хозяйстве или промышленности). Практически мы будем иметь два мно- жества наблюденных значений, скажем а1} а2, аа и ръ р2, •••» Рб, со- ответствующих двум методам или представляющих собой некоторые характе- ристики (такие, как вес) элементов двух совокупностей. Альфы и беты явля- ются числами, которые мы будем предполагать расположенными в порядке возрастания: <: а2 аа и pi гС р2*С • • • «С Рь- Теперь объединим оба множества в одну последовательность, элементы которой расположены в по- рядке возрастания. Крайним случаем является случай, когда все альфы пред- шествуют всем бетам, и это может рассматриваться как указание на большую разницу между двумя методами или совокупностями. С другой стороны, если оба метода одинаково эффективны, то альфы и беты должны располагаться в более или менее случайном порядке. А. Вальд и Дж. Вольфовиц* 2) пока- зали, что теория серий может быть успешно применена для обнаружения малых систематических различий (иллюстрирующий это пример, рассмотрен- ный, правда, другим методом, будет дан в гл. III, 1,6)). Большое число задач, связанных с сериями, могут быть решены чрезвы- чайно простым способом. Пусть даны а неразличимых альф и b неразличимых бет; из примера 4, д) мы знаем, что существуют различимых упоря- дочений. Если имеется п± серий из альф, то число серий из бет с необходим мостью равно одному из чисел п± ± 1 или nj. Получение из а альф п± серий эквивалентно размещению их по ячейкам так, что ни одна из последних не останется пустой. Из последней леммы следует, что это может быть сде- лано различимыми способами, Отсюда, например, следует, что суще- ствует (^«7 ) последовательностей, содержащих ni серий из альф и «1+1 серий из бет (продолжение в задачах 20—25 § 11). в) В физике теория серий используется для изучения кооперативных явле- ний. В теории одномерных решеток Изинга энергия зависит от числа соседних элементов разного типа, т. е. от числа серий. ► § 6. ГИПЕРГЕОМЕТРИЧЕСКОЕ РАСПРЕДЕЛЕНИЕ Многие задачи комбинаторики могут быть сведены к следующей модели. В генеральной совокупности из п элементов имеется ид х) Cochran W. G., An extension of Gold’s method of examining the apparent persistence of one type of weather, Quarterly Journal of the Royal Meteorological Society, 64, No. 277 (1938), 631—634. 2) Wald A., Wolfowitz J., On a test whether two samples are from the same population, Ann. Math. Statist., 2(1940), 147—162.
Гл. II. Элементы комбинаторного анализа элементов красного цвета и п2—п—пг черного. Случайным образом выбирается группа из г элементов. Найдем вероятность qh того, что так выбранная группа будет содержать ровно k красных эле- ментов. Здесь k может быть любым целым числом между нулем и наименьшим из чисел и г. Для того чтобы найти qk, заметим, что выбранная группа со- стоит из k красных и г—k черных элементов. Красные элементы могут быть выбраны различными способами, а черные й1) способами. Так как любой выбор красных элементов может ком- бинироваться с любым выбором черных, имеем Определенный таким образом набор вероятностей называется ги- пергеометрическим распределением Используя (4.3), можно пе- реписать (6.1) в виде Замечание. Вероятности qk определены только для k, не превос- ходящих г или пъ но, так как при b>a (&)=0, из формул (6.1) и (6.2) следует, что gfe=0, если либо либо k>r. Следовательно, определения (6.1) и (6.2) могут использоваться для всех при условии, что соотношение qk^= 0 интерпретируется как невозмож- ность такого выбора. Примеры, а) Проверка качества. При контроле качества продук- ции выборочной проверке подвергается партия из п изделий. Де- фектные изделия в партии играют роль красных элементов. Их чис- ло конечно, не известно. Производится выборка объема г и оп- ределяется число k дефектных изделий в ней. Тогда формула (6.1) позволяет нам сделать выводы относительно истинного значения П1-; это типичная задача статистического оценивания, выходящая, однако, за рамки данной книги. б) В примере 4, б) генеральная совокупность состоит из п=100 сенаторов, из которых лгх=2 представляют данный штат (являются «красными»). Случайным образом выбирается группа из г=50 се- наторов. Она может включать й=0, 1 или 2 сенаторов из данного штата. Из (6.2), учитывая (4.4), находим q0=qt= (50-49)/(100-99) =0,24747..., ^=50/99=0,50505.... Это значение qQ было получено другим способом в примере 4, б). х) Это название объясняется тем, что производящая функция (см. гл. XI) последовательности {qk} может быть выражена через гипергеометрические функции.
§ 6. Гипергеометрическое распределение 65 в) Оценка размера популяций по данным повторного отлова х). Предположим, что из озера вылавливают 1000 рыб, помечают их красной краской и выпускают обратно. При повторном отлове 1000 рыб среди них оказалось 100 помеченных. Какие выводы мож- но сделать относительно числа рыб в озере? Это типичная задача статистического оценивания. Мъ\ зашли бы слишком далеко, если бы стали описывать разнообразные методы, которые может исполь- зовать современный статистик, однако мы покажем, как гипергео- метрическое распределение дает ключ к решению этой задачи. Мы предполагаем, конечно, что результаты двух отловов можно рас- сматривать как случайные выборки из совокупности всех рыб в озере (на практике это предположение исключает тот случай, когда два отлова производятся в одном и том же месте и за короткий про- межуток времени). Мы предполагаем также, что число рыб в озере не меняется между двумя отловами. Обобщим задачу, рассмотрев выборки произвольного объема. Пусть п — (неизвестное) число рыб в озере, пг — число рыб в пер- вом улове (играющих роль красных элементов), г — число рыб во втором улове, k — число помеченных рыб во втором улове, qh (п) — вероятность того, что второй улов содержит ровно k помеченных рыб. При такой постановке задачи qh(n), очевидно, вычисляется по формуле (6.1). На практике щ, г и k могут наблюдаться, а п неиз- вестно. Отметим, что мы рассматриваем п как неизвестное число, ко- торое никоим образом не зависит от случая. Мы знаем, что было пой- мано П1+г—k различных рыб и поэтому —k. Это все, что можно сказать с полной уверенностью. В нашем примере Пх—г^ •=1000 и А=100; возможно, что в озере обитает только 1900 рыб, однако, отправляясь от этого предположения, мы придем к заклю- чению, что осуществилось событие фантастически малой вероятно- сти. Действительно, при предположении, что имеется всего п=1900 рыб, вероятность того, что две выборки объема 1000 каждая пол- ностью исчерпают всю генеральную совокупность, согласно (6.1), равна 1000 ( 900 (1900 V1 (1000!)2 100 ) \ 900 ) \ 1000 ) — 1001 1900! ’ Формула Стирлинга (см. § 9) показывает, что эта вероятность яв- ляется величиной порядка 10“430, и в такой ситуации здравый смысл заставляет отбросить наше предположение как неправдоподобное. Та же причина заставит нас отбросить предположение, что п очень х) Приводя этот пример в первом издании, мы не знали, что описанный метод широко используется на практике. Из работ по этому вопросу отметим Bailey N. Т. J., On estimating the size of mobile populations from recapture data, Biomet- rika, 38 (1951), 293—306 и Chapman D.G., Some properties of the hypergeometrio distribution with applications to zoological sample censuses, University of Cali- fornia Publications in Statistics, 1 (1951), 131—160» 3 № 221
66 Гл, IJ. Элементы комбинаторного анализа велико, скажем равно миллиону. Эти соображения побуждают нао искать такое значение п, при котором qk (п) достигает своего наиболь- шего значения, поскольку для такого п наше наблюдение имеет максимальную вероятность. Для каждого фиксированного набора наблюденных значений пи г, k значение п, при котором мак- симально, обозначается через п и называется оценкой максимального правдоподобия для п. Это понятие было введено Фишером. Для на- хождения п рассмотрим отношение Як (п)/[Як (« — 0] = («—«1) (П—r)/[(n—г 4-Al) л]. (6.3) Простые вычисления показывают, что это отношение больше еди- ницы при nk<ji±r и меньше единицы при nk^n^. Это означает, что с возрастанием п последовательность qh (п) сначала возрастает, а затем убывает; она достигает максимума, когда п является наиболь- шим целым числом, не превосходящим Пуг/k, так что п приблизи- тельно равно Пхг/k, В нашем конкретном примере оценка максималь- ного правдоподобия для числа рыб равна Я = 10 ООО. Истинное значение п может быть больше или меньше п, и можно поставить задачу нахождения пределов, о которых можно с доста- точной степенью уверенности сказать, что п находится внутри их. С этой целью проверим предположение, что п меньше, чем 8500. Подставим в (6.1) л=8500, п^г^ 1000 и найдем вероятность того, что второй улов содержит не более 100 помеченных рыб. Эта вероят- ность равна х= 7o+<7i+. . .+<7юо. Непосредственное вычисление х громоздко, однако, используя нормальное приближение (см. гл. VII), мы легко находим, что х=0,04. Аналогично, если п—12 000, то ве- роятность того, что второй улов содержит 100 или более помечен- ных рыб, примерно равна 0,03. Эти данные подтверждают предпо- ложение, что число рыб находится где-то между 8500 и 12 000. Су- ществуют другие способы получения этих выводов и другие методы оценивания, но мы не намерены обсуждать детали. ► Из определения вероятностей qk следует, что 9о + 91 + 92+‘ • . = 1. Из формулы (6.2) поэтому вытекает, что для любых положительных целых п, n-i и г (г\(п—г\ . (г\( п—г \ . , / r\fn—r\ / п\ (од 1/+'”+\«i/\ 0 / («J' Это тождество часто бывает полезным. Мы доказали его лишь для положительных целых п и г, но оно остается справедливым без этого ограничения для произвольных положительных или отрицательных /гиг (это равенство не имеет смысла, когда пг не является положи- тельным целым). (Указания на два способа доказательства даны в задачах 8 и 9 § 12.)
§ 7. Примеры, связанные с временем ожидания 67 Гипер геометрическое распределение легко обобщить на случай, когда исходная генеральная совокупность объема п содержит не- сколько классов элементов. Например, пусть генеральная сово- купность содержит три класса объемом п*, п2 и и—П1—п2 соответ- ственно. Если извлекается выборка объема г, то вероятность того, что она содержит k± элементов первого класса, k2 элементов второго и г—k±—k2 элементов третьего, по аналогии с (6.1) равна ni\ f п—ni — п%\ (п Vх М \А/ \ г~К—^2/ V / * (6-5) Разумеется, необходимо, чтобы k2^Jl2, г—kj_—k2^n—/?1—п2. Пример, г) Бридж. Совокупность из 52 карт состоит из четырех классов по тринадцати элементов в каждом. Вероятность того, что у какого-либо игрока будет пять пик, четыре червы, три бубны и одна трефа, равна 13 5 13 4 13 3 13 1 52 13 § 7. ПРИМЕРЫ, СВЯЗАННЫЕ С ВРЕМЕНЕМ ОЖИДАНИЯ В этом параграфе мы отступим от непосредственного изучения комбинаторного анализа, для того чтобы рассмотреть некоторые пространства элементарных событий нового типа, к которым при- водит простая модификация задач о размещении. Рассмотрим еще раз мыслимый эксперимент случайного размещения шаров по п ящикам. Однако на этот раз мы не будем фиксировать заранее число шаров г, а будем помещать шары один за другим до тех пор, пока не возникнет некоторая предписанная ситуация. Две такие возможные ситуации будут обсуждены подробно: (i) Случайное размещение ша- ров продолжается до тех пор, пока некоторый шар впервые попадет в уже занятый ящик. Процесс заканчивается при первом появлении ящика с двумя шарами, (ii) Мы фиксируем какой-либо ящик (ска- жем, ящик номер 1) и продолжаем размещение шаров все время, пока этот ящик остается пустым. Процесс заканчивается тогда, когда в заданный ящик впервые попадет какой-то шар. Несколько интерпретаций этой модели прольют свет на существо проблемы. Примеры, а) Дни рождения. В примере 3, г) с днями рождения число дней в году п=365 и дни соответствуют ящикам, а люди — шарам. Наша модель (i) теперь равнозначна следующему: если мы выбираем людей случайно одного за другим, то сколько их нужно взять, чтобы получить пару с одинаковыми днями рождения? Мо- дель (ii) соответствует ожиданию появления в выборке человека с моим днем рождения. 3*
68 Гл. 11 Элементы комбинаторного анализа б) Заоача о ключе. Человек хочет открыть свою дверь. У него п ключей, из которых только один подходит к двери. По причине, о которой можно только догадываться, он пробует ключи случайно, так что при каждой попытке каждый ключ имеет вероятность быть выбранным /г”1 и все возможные исходы, отвечающие данному числу попыток, равновероятны. Это частный случай модели (ii). Интерес- но сравнить описанный случайный поиск ключа с более системати- ческим подходом (задача 11 § 10; см. также задачу 5 гл. V, 8). в) В предыдущем примере мы можем заменить выбор ключей выбором из произвольной совокупности, скажем из набора купонов. Опять мы хотим узнать, когда ожидается первое повторение выбран- ного элемента или когда некоторый фиксированный элемент будет выбран в первый раз. г) Монеты и игральные кости. В примере гл. I, 5, а) монета бро- сается до тех пор, пока не появится герб. Это частный случай моде- ли (ii) с п^= 2. При бросании игральной кости до появления единицы применяется та же модель с п=6. (Другие времена ожидания рас- сматриваются в задачах 21, 22 и 36 § 10 и в задаче 12 § И.) ► Мы начнем с более простой для понимания модели (i). Для того, чтобы указать, что первый, второй, . . ., r-й шары заняли ящики с номерами /\, /2,.. ., jr и что процесс закончился на r-м шаге, удоб- но использовать набор символов (Д, /2, . . ., Д). Это означает, что ji — целое число между 1 и /г; кроме того, ju . . jr_i все различ- ны, a jr равно одному из них. Каждое упорядоченное множество такого типа представляет собой элементарное событие. Для г воз- можны только значения 2, 3, . . ., /г+1, так как повторное попадание в ящик не может произойти до размещения второго шара или после того, как (/г+ 1)-й шар занял ящик. Связь настоящей задачи с преж- ней моделью размещения фиксированного числа шаров по п ящикам приводит нас к приписыванию каждому элементарному событию (Д, • • •» jr)> соответствующему ровно г шарам, вероятности /г”г. Мы покажем, что такое соглашение допустимо (т. е. что сумма на- ших вероятностей равна единице) и что это приводит к разумным результатам. При фиксированном г совокупность всех элементарных событий (Д, • • •, /г) представляет собой событие, состоящее в том, что про- цесс закончится на r-м шаге. В соответствии с (2.1) числа j19 . . /г-i могут быть выбраны (п)г^ различными способами, а Д мы вы- бираем из г—1 чисел Д, . . ., jr_i. Отсюда следует, что вероят- ность того, что процесс закончится на r-м шаге, равна /1—1). /1£=2\г-1 (71) причем 71—0 и q2=Un. Вероятность того, что процесс будет про- должаться после r-го шага, равна рг=\—(71+72+. • .+7г)> откуда
$ 7. Примеры, связанные с временем ожидания, 69 Р1=1 и ft = ^=(1-7)---(1-Lr). <7-2> что может быть доказано простой индукцией. В частности, pn+f = 0 и 91+ ... +9„+1= 1, как и предполагалось. Кроме того, при п=365 формула (7.2) сводится к (3.2) и в общем случае наша новая модель приводит к тем же количественным результатам, что и пре- дыдущая модель с фиксированным числом шаров. Модель (ii) отличается от (i) тем, что она связана с бесконечным пространством элементарных событий. Последовательности (Д, . . ., /г) подчинены условию, что числа /ъ . . ., отличны от фик- сированного заранее числа а^п, a jr=a. Кроме того, нет никакой априорной причины, что процесс должен когда-нибудь закончиться. При фиксированном г мы снова припишем каждому элементарному событию (/1, . . /г) вероятность п~г, Для каждого из Д, . . ., имеем п—1 возможностей, а для Д выбора совсем нет. Мы получаем поэтому, что вероятность того, что процесс закончится на г-м шаге, равна q\ = \_(n— П/ц]7”1 (1//1), 7 = 1, 2, ... . (7.3) Суммируя эту геометрическую прогрессию, найдем, что 9* + 9» + + ...==1. Так как сумма вероятностей 9* равна единице, нет необ- ходимости вводить элементарное событие, соответствующее тому, что никакой шар не попадет в ящик с фиксированным номером а. Для вероятности того, что процесс будет продолжаться после r-го шага, получаем /?,* = (1--\/пУ, г == 1, 2, ..., (7.4) как и следовало ожидать. Медианой распределения {рД называется такое значение г, для которого /?! + ... + рг_} 1/2, но . + рг > 1/2; это озна- чает, что приблизительно одинаково вероятно, что процесс про- должится после медианы или закончится до нее1). (В примере 3, г) о днях рождения медиана г = 23.) Чтобы вычислить медиану для {ргД перейдем к логарифмам, как это делалось в (3.4). Когда г мало по сравнению с п, мы видим, что —log близок к г2/(2п). *) В общем случае медианой ряда значений Xf . *. ^хп, которые какая-то величина принимает с вероятностями pt, р2, ,рп соответственно^ k п называется значение х с таким индексом k, что 2 Р1^ 1/2 и 2 Р1^ 1/2.-— 1=0 i=& Прим, перев.
70 Гл. II. Элементы комбинаторного анализа Отсюда следует, что медиана {рг} близка к K^-2-log2, или при- ближенно к (6/5) |/п. Интересно, что медиана возрастает как корень квадратный из объема совокупности. В отличие от этого медиана распределения {р/} близка к n-\og2, или 0,7/г, и возрастает линейно с ростом п. Вероятность того, что время ожидания в модели (И) превысит п, равна (1—/г”1)" или приблизительно в"1=0,36788.... § 8. БИНОМИАЛЬНЫЕ КОЭФФИЦИЕНТЫ Мы использовали биномиальные коэффициенты только для целых положительных /г, но очень удобно расширить это определе- ние. Число (х)г, введенное формулой (2.1), а именно (х)Г=х(х—1). . .(х—г+1), (8.1) определено для всех действительных х, если г является целым по- ложительным числом. При r=0 положим (х)0=1. Тогда /х\ (х)г _х(х — 1)...(х— г+1) /о m уг) г! г! ' определяет биномиальные коэффициенты для всех значений х и всех положительных целых г. Для г = 0 положим, как и в (4.4), = 1 и 01 = 1. Для отрицательных целых г определим = г < 0. (8.3) Мы никогда не будем использовать символ , если г не являет- ся целым числом. Легко проверить, что при таком определении мы имеем, на- пример, (~2) = (--1/И+ 1). (8.4) Впоследствии будут использоваться три важные свойства бино- миальных коэффициентов. Первое: для любого целого положитель- ного п ^^ = 0, если либо г>п, либо г < 0. (8.5) Второе: для любого числа х и любого целого г ( ZQ Эти соотношения легко получают из определения. Доказательство третьего соотношения можно найти в курсах математического ана-
§ 9. Формула Стирлинга 71 лиза: для любого числа а и любого —1<7<1 справедлива формула бинома Ньютона (1 +/)а= 1+(^) / + (2) ^2 + (з) ^3+• • • . (8.7) Если а — целое положительное число, то все слагаемые в правой части, содержащие степени t выше ta, автоматически обращаются в нуль и формула справедлива при всех t. Если а не является целым положительным числом, правая часть (8.7) представляет собой бесконечный ряд. Используя (8.4), легко получить, что при а=—1 разложение (8.7) превращается в геометрический ряд 1/(1+/) = 1—. (8.8) Интегрируя (8.8), получаем еще одну формулу, которая окажется полезной впоследствии, а именно разложение натурального логариф- ма в ряд Тейлора log (1 = i-(1/2) Z2 + (1/3) Z3— (1/4) Z4 + ... . (8.9) Часто используются две другие формы соотношения (8.9) . Заменив t на —Z, получим log [1/(1 -/)]=+ + (1/2) Р + (1/3) Р + (1/4)^+... . (8.10) Сложив два последних равенства, имеем (1/2) log [(1+ Z)/(l-t)] = t + (1/3) Z3 + (1/5)Z*+... . (8.11) Все эти разложения имеют место только при —1<Z<1. Много полезных соотношений, получающихся из (8.7), будет приведено в § 12. Здесь мы укажем только, что при целом а=п и t=l из формулы (8.7) следует, что (S) + (?) + (2)+--+(")=2"' <8J2> Эта формула допускает простую комбинаторную интерпретацию. Левая часть представляет собой число способов, которыми множест- во из п элементов можно разделить на два подмножества, если объем первого подмножества может быть любым числом k=0, 1, . . ., п. С другой стороны, такое разделение можно выполнить непосредст- венно, положив, что каждый элемент может принадлежать либо первой, либо второй группе. (Аналогичные рассуждения показыва- ют, что сумма полиномиальных коэффициентов равна kn.) § 9. ФОРМУЛА СТИРЛИНГА Важным инструментом аналитической теории вероятностей яв- ляется классическая формула х), известная как *) Stirling J.? Methodus differentialis, 1730r
72 Гл. 11. Элементы комбинаторного анализа Формула Стирлинга: п\ ~ |/*2я пп+1/2 e“7Z, (9.1) где символ ~ указывает на то, что отношение двух выражений стре- мится к единице при п-+оо. Эта формула неоценима для многих теоретических исследований и может быть также использована для получения хороших числен- ных приближений. Хотя разность левой и правой частей (9.1) неог- раниченно возрастает, в действительности имеет значение лишь от- носительная погрешность. Она равномерно убывает, и приближение Стирлинга необыкновенно точно даже для малых п. Действительно, правая часть (9.1) дает 0,9221 для 1!, 1,919 для 2! и 118,019 для 5! — = 120. Относительные погрешности будут 8, 4 и 2% соответственно. Для 10! =3 628 800 приближение по формуле Стирлинга дает 3 598 600 с погрешностью 0,8%. Для 100! получается погрешность только 0,08%. Вывод формулы Стирлинга. Наша первая задача — получить оценку для log п\ = log 1+log 2+. . ,+log п. (9.2) Так как log х — монотонная функция от х, имеем k Ai+l J logx dx < log k < logxdx. (9.3) k-i k Суммируя no &=1, ...» n, получаем n n + 1 logxdx < logn! < logxdx, (9.4) 0 1 ИЛИ nlog n—n<Iog n\<(n+1) log (n+1)—n. (9.5) Это двойное неравенство наводит на мысль сравнить log п\ с некото- рой величиной, близкой к среднему арифметическому крайних чле- нов. Простейшей такой величиной является (n+l/2)logn—п, и поэтому будем оценивать разность х) dn = log n!—(n+ l/2)log n+n. (9.6) Заметим, что 4-A+1==(n+l/2)log [(n+l)/n]-l. (9.7) Ho n+l_l + l/(2n+l) n ” l-l/(2n+l) ’ ' °' x) Проведенное ниже изящное рассуждение и неравенство (9.14) принадлежа? Роббинсу (Robbins Н. Е,г Amer, Math, Monthly, 62 (1955), 26—29),
J 9. Формула Стирлинга 73 и, используя разложение (8.11), получаем dn dn+1 = ”^5 (2n4-l)4^ ' ’ • * Из сравнения правой части с геометрической прогрессией со зна- менателем (2п-|-1)~* 2 видно, что ° < dn—dn+i < з [(2п+1)2—1] = 12п~12(га4-1) ‘ 10) Из (9.9) заключаем, что последовательность {dn} убывает, в то вре- мя как (9.10) показывает, что последовательность \dn—(12/г)”1} возрастает. Отсюда следует, что существует конечный предел C=\imdn. (9.11) Но в силу (9.6) соотношение dn->C эквивалентно п! ~ ес -пп+1/2 е~п. (9.12) Это и есть формула Стирлинга, только константа С еще не опре- делена. В гл. VII, 2 будет доказано, что Доказатель- ство этого факта является элементарным и не зависит от матери- ала гл. IV—VI; оно отложено до гл. VII потому, что оно есте- ственно связано с теоремой о нормальном приближении1). Уточнения. Мы можем получить неравенство в другую сторону, анало- гичное (9.10). В самом деле, из (9.9) очевидно, что 4— dn+1 > 3 (2„-1-1)2 > 12я4-1 —12 (n+1) +1 • (9> 13) Отсюда следует, что последовательность {dn—(12/г+1)“х} убывает. А так как {</„—(12и)“х} возрастает, выполняется двойное неравенство С+ 1/(12п+ 1) < dn < С+ 1/(12п). (9.14) Заменив в последней формуле dn его выражением (9.6) и положив (пока без доказательства) ес— ]/" 2я, получим У2лпп+1^2 е~п•е^12п+1>)~1 < и! < У 2тп+1^2 е~п -. (9.15) Это двойное неравенство дополняет формулу Стирлинга замечательным обра- зом. Отношение крайных членов близко к 1 — (12/г2)“х, и, следовательно, величина в правой части (9.15) превзойдет n\t но с погрешностью меньшей, чем 9/г”2 %. В действительности погрешность намного меньше2): для п = 2 пра- вая часть (9.15) дает 2,0007, для п = 5 получаем 120,01. х) Обычно доказательство равенства ес=У2п основывается на формуле Валлиса. Простое прямое доказательство см. в статье автора (Feller W.t Amer. Math. Monthly, 1967). 2) Основываясь на (9.9), можно показать, что dn — С+(12/г)“х—. — (360п3) ~х4-*«•, где многоточие означает слагаемые* убывающие быстрее* чем
Гл. JJ. Элементы комбинаМбрного анализа ЗАДАЧИ Замечание. В § 10 включены стандартные упражнения. Задачи теоретического характера и различные дополнения к тексту содержатся в § 11 и 12. § 10. УПРАЖНЕНИЯ И ПРИМЕРЫ Замечание. В каждом случае предполагается, что все комбинации имеют рав- ные вероятности. 1. Сколько можно образовать различных инициалов, если каждый человек имеет одну фамилию и а) ровно два имени, б) не больше двух имен, в) не больше трех имен? 2. В азбуке Морзе буквы представляются последовательностями тире и точек с возможными повторениями. Сколько букв можно составить из десяти или менее символовх)? 3. Каждая кость домино помечается двумя числами. Кости симметричны, так что числа в парах не упорядочены. Сколько различных костей можно образовать, используя числа 1,2,..., и? 4. Числа 1, 2, . . ., и расположены в случайном порядке. Найти вероятность того, что числа а) 1 и 2, б) 1, 2 и 3 расположены рядом в указанном порядке. 5. Игрок А бросает шесть игральных костей и выигрывает, если выпадет хотя бы одна единица. Игрок В бросает двенадцать игральных костей и выигрывает, если выпадут хотя бы две единицы. У кого больше вероятность выиграть * 2)? Указание. Найти вероятности проигрыша. 6. а) Найти вероятность того, что из трех случайно выбранных цифр ровно 2, 1,0 будут повторяться, б) Решить ту же задачу для четырех случайно выбранных цифр. 7. Найти вероятность рг того, что среди г случайно выбранных цифр нет двух равных. Вычислить значение р10 по формуле Стирлинга. 8. Чему равна вероятность того, что среди k случайно выбранных цифр а) не встретится 0; б) не встретится 1; в) не встретится ни 0, ни 1; г) не встретится хотя бы одна из двух цифр 0 или 1? Пусть Л и В обозначают события а) и б). Выразить остальные события через А и В. 9. Найти вероятность того, что при случайном размещении п шаров по п ящикам ровно один ящик останется пустым. 10. На автомобильной стоянке двенадцать мест расположены в один ряд. Некто заметил, что на стоянке находится восемь автомобилей и что четыре сво- бодных места примыкают друг к другу (образуют одну серию). Является ли такое расположение четырех свободных мест неожиданным (указывающим на отсутствие случайности)? 11. Человеку дают п ключей из которых только один подходит к его двери. Он испытывает их последовательно (выбор без возвращения). Этот процесс может потребовать 1, 2, . . ., п испытаний. Показать, что каждый из этих исходов имеет вероятность п-1. 12. Каждая из п палок разламывается на две части — длинную и короткую. Затем 2/г обломков объединяются в п пар, каждая из которых образует новую «пал. -1) То есть сколько существует последовательностей не более чем из десяти тире и точек? — Прим, перев. 2) Это перефразировка вопроса, заданного в 1693 г. И. Ньютону знаменитым в свое время Сэмюелем Пипсом. [Пипс С. (Pepys S., 1633—1703) — выдающийся общественный деятель; в 1684 г. был избран президентом Королевского Общества. Знаменит прежде всего своим тайным дневником, частично опубликованным в 1825 г.— Перев.] Ньютон ответил, что «легкие вычисления» показывают преиму- щество А. В подтверждение он позже представил эти вычисления, но не смог убе- дить Пипса. Короткий документальный отчет см. в статье Schell Е. D., Samuel Pepys, Isaac Newton, and probability, The Amer. Statistician, 14 (1960), 27—30, где содержатся ссылки на Private correspondence and miscellaneous papers of Samuel Pepys, London, G. Bell and Sons, 1926.
§ 10. Упражнения и примеры ку». Найти вероятность того, что а) части будут соединены в первоначальном по- рядке, б) все длинные части будут соединены с короткими + 13. Проверка статистической гипотезы. Некий профессор Корнеллского университета был оштрафован двенадцать раз за незаконную ночную стоянку автомобиля. Все двенадцать штрафов налагались во вторник или в четверг. Найти вероятность этого события. (Имело ли смысл арендовать гараж только на вторники и четверги?) 14. Продолжение. Из двенадцати штрафов ни один не был наложен в воскре- сенье. Свидетельствует ли это о том, что в воскресенье штрафы не налагаются? 15. Ящик содержит девяносто годных и десять дефектных шурупов. Если ис- пользовать десять шурупов, какова вероятность того, что ни один из них не ока- жется дефектным? 16. Из генеральной совокупности, состоящей из пяти символов a, b, cf d, е, производится выборка с возвращением объема 25. Найти вероятность того, что выборка содержит по пяти символов каждого вида. Сравнить результат с таблица- ми случайных чисел 1 2), отождествив цифры 0 и 1 с а, цифры 2 и 3 с b и т. д. 17. Пусть п человек, среди которых находятся Л и В, становятся в ряд* Какова вероятность того, что между А и В окажется ровно г людей? Показать, что, если они становятся не в ряд, а в круг, эта вероятность не зависит от г и, следова- тельно, равна 1/ (п—1). (При круговом расположении рассматривать только дуги, идущие от А к В в положительном направлении.) 18. Чему равна вероятность того, что два бросания трех игральных костей дадут один и тот же результат, если а) кости различимы, б) кости не различимы? 19. Показать, что более вероятно получить хотя бы одну единицу при броса- нии четырех игральных костей, чем хотя бы одну пару единиц при 24 бросаниях! двух костей. Ответ известен под названием парадокса де Мере3). 20. Из генеральной совокупности, содержащей п элементов, извлекается вы- борка объема г. Найти вероятность того, что ни один из N данных элементов не будет содержаться в выборке, предполагая, что выбор производится а) без воз- вращения, б) с возвращением. Сравнить численные результаты при двух способах выбора, когда (i) п—100, л=А=3 и (ii) п—100, г=А/= 10. 21. Распространение слухов. В городе проживает п+1 человек. Один из них, узнав новость, сообщает ее другому, тот — третьему и т. д., причем передача но- вости осуществляется следующим образом: человек, которому сообщена новость, случайным образом выбирает одного из п жителей и сообщает новость ему, тот поступает точно так же и т. д. Найти вероятность того, что новость будет передана г раз без а) возвращения к человеку, который узнал ее первым, б) повторного со- общения кому-либо. Решить ту же задачу, когда на каждом шаге новость сообща- ется одним человеком группе из N случайно выбранных людей. (Первая часть задачи является частным случаем при М=1.) 22. Цепь писем. В генеральной совокупности из п+1 людей человек, назы- ваемый «прародителем», посылает письма двум случайно выбранным людям, об- 1) Когда клетки подвергаются воздействию губительной радиации, некоторые хромосомы (играющие роль наших «палок») разрываются. «Длинными» считаются те части, которые содержат так называемые центромеры. Если соединяются две «длинных» или две «коротких» части, то клетка гибнет. См. Catcheside D. G., The effect of X-ray dosage upon the frequency of induced structural changes in the chro- mosomes of Drosophila Melanogaster, Journal of Genetics, 36 (1938), 307—320, 2) Соответствие порой оказывается удивительно точным; см. Greenwood J. А., Stuart Е. Е. , Review of Dr. Feller’s critique, Journal for Parapsychology, 4 (1940)t 298—319, в особенности с. 306. 3) Неоднократно утверждалось, что эта задача возникла за игорным столом и что в 1654 г. де Мере предложил ее Паскалю. Как полагают, этот случай оказал большое стимулирующее воздействие на развитие теории вероятностей. На самом деле эта задача была поставлена Кардано (1501—1576); см. Ore О., Pascal and the invention of probability theory, Amer. Math. Monthly, 67 (1960), 409—419 и Cardano, the gambling scholar, Princeton, Princeton Univ. Press. 1953.
76 Гл. II. Элементы комбинаторного анализа . ------------------------------------------ ---- -пммм.- ,т ... -а разующим «первое поколение». Они делают то же самое, и вообще каждый полу- чатель письма посылает письма двум случайно выбранным людям независимо от всего предыдущего. Найти вероятность того, что «поколения» с номерами 1,2, . . . * . г не включают в себя «прародителя». Найти медиану распределения, считая п достаточно большим. 23. Семейная задача. В некоторой семье четыре сестры моют посуду по очереди. Из четырех разбитых тарелок три разбито младшей сестрой, и поэтому ее называ- ют неуклюжей. Можно ли ее оправдать, приписывая эти неудачи случайности? Обсудить связь со случайным размещением шаров. 24. Найти вероятность того, что а) дни рождения двенадцати человек придутся на двенадцать разных месяцев года (предположить, что все месяцы равновероят- ны), б) дни рождения шести человек придутся в точности на два месяца. 25. Найти вероятность того, что для данных 30 человек шесть из двенадцати месяцев года содержат по два дня рождения и шесть — по три. 26. В чулане лежат п пар ботинок. Случайно выбираются 2г ботинок (2г<п). Чему равна вероятность того, что среди них а) не будет ни одной пары, б) будет ровно одна пара, в) ровно две пары? 27. На автомобильной стоянке N мест расположены в один ряд. Прибывший на стоянку автомобиль занимает одно из свободных мест (не с краю). По возвра- щении его владелец обнаруживает, что ровно г мест еще заняты. Какова вероят- ность того, что оба соседних места свободны? 28. Группа из 2N мальчиков и 2N девочек делится на две равные части. Найти вероятность р того, что каждая часть содержит одинаковое число мальчиков и де- вочек. Оценить р, используя формулу Стирлинга. 29. Доказать, что при игре в бридж вероятность р получения «Западом» ровно k тузов равна вероятности того, что произвольный игрок имеет ровно k тузов. (Это интуитивно ясно. Заметим, однако, что эти две вероятности относятся к двум различным экспериментам, так как во втором случае случайно выбираются три- надцать карт, а в первом случае распределяются все 52 карты.) 30. Вероятность того, что при игре в бридж «Восток» получит т, а «Юг» п пик равна вероятности того, что в двух наборах по тринадцати случайным обра- зом извлеченных из колоды карт первый содержит т и второй п пик. 31. Чему равна вероятность того, что у «Севера» и «Юга» вместе имеется ровно k тузов, где /г=0, 1, 2, 3, 4? 32. Пусть tz, b, с, d — четыре неотрицательных целых числа, таких, что a-[-b-[-c-\-d= 13. Найти вероятность р(а, b, с, d) того, что при игре в бридж игроки «Север», «Восток», «Юг», «Запад» имеют tz, b, с, d пик соответственно. Описать схему размещения красных и черных шаров по ящикам, которая включает эту задачу в качестве частного случая. 33. Используя результат задачи 32, найти вероятность того, что один игрок получит а, второй Z?, третий с и последний d пик, если a) а=5, b=4, с=3, d=l;< б) a=b—c—4, d—l; в) zz=Z?=4, с=3, d~2. Заметим, что эти три случая сущест- венно различаются. 34. Пусть а, b, с, d — целые числа, такие, что a+6-HH-d=13. Найти веро- ятность q (а, Ь, с, d) того, что один из игроков в бридж будет иметь а пик, b черв, с бубен и d треф, и показать, что задача не сводится ни к одному из случайных раз- мещений тринадцати шаров по четырем ящикам. Почему? 35. Распределение тузов в наборе из г карт. Вычислить вероятности р0(г), рх(г), . . ., р±(г) того, что среди г карт, случайно извлеченных из колоды при игре в бридж, соответственно 0, 1, . . ., 4 туза. Проверить, что р0(г)=р4(52—г). 36. Продолжение: времена ожидания. Найти вероятности Л. (г), (И того, что при последовательном извлечении карт из колоды первый, . . ., чет- вертый туз появится при г-м испытании. Угадать медианы времени ожидания для первого, . . ., четвертого туза, а затем вычислить их. 37. Найти вероятность того, что каждый из двух наборов карт содержит ровно k тузов, если каждый набор составлен из г карт и выбор производится из а) одной и той же колоды для игры в бридж, б) двух таких колод. Показать, что приг=13
§11. Задачи и дополнения теоретического характера 77 вероятность события в случае а) равна вероятности того, что два фиксированных игрока получат ровно по k тузов каждый. 38. Опечатки. Каждая страница книги содержит N символов, причем воз* можны опечатки. Книга содержит п=500 страниц и г=50 опечаток. Показать, что а) вероятность того, что страницы с номерами 1, 2, ... , п содержат соответ- ственно г15 г2, . . ., гп опечаток, равна СШЭ-ЧЭГР б) для больших N эта вероятность может быть приближенно представлена формулой (5.3). Заключить отсюда, что г опечаток распределены по п страницам приблизительно в соответствии со случайным размещением г шаров по п ящикам. (Замечание. Распределение г опечаток по N имеющимся местам соответствует статистике Ферми — Дирака. Наше утверждение может быть сформулировано как общее предельное свойство статистики Ферми — Дирака; см. разд, а § 5.) Замечание. Следующие задачи имеют отношение к материалу § 5. 39. Найти число различимых способов размещения i\ неразличимых предметов одного вида и г2 неразличимых предметов другого вида по п ящикам. 40. Сколько существует различимых результатов совместного бросания гц игральных костей и г2 монет? 41. Сколькими различимыми способами можно расположить в ряд 1\ белых, г2 черных и г3 красных шаров? 42. Найти вероятность того, что при случайном расположении в ряд 52-х карт для игры в бридж никакие два туза не будут находиться рядом. 43. Лифт. В примере 3, в) лифт начинает движение с семью пассажирами и останавливается на десяти этажах. Различные распределения пассажиров по этажам символически можно представить записью вида (3, 2, 2), которая интер- претируется как событие, состоящее в том, что три пассажира вышли из лифта на одном этаже, еще два пассажира на другом этаже и последние два — на еще одном этаже. Найти вероятности пятнадцати возможных распределений пассажиров от (7) до (1, 1, 1, 1, 1, 1, 1). 44. Дни рождения. Найти вероятности возможных распределений дней рож- дения 22 человек. 45. Найти вероятность того, что у игрока в покер будет а) флеш ройяль (десятка, валет, дама, король и туз одной масти); б) каре (четыре карты одного значения); в) фул (три карты одного значения и две карты другого значения);! г) стрит (пять последовательных по значению карт произвольных мастей); д) тройка (три карты одного значения плюс две карты других значений, различа- ющиеся по значению между собой); е) две двойки (две пары карт одного значения в каждой паре плюс карта отличного от них значения); ж) одна двойка (пара карт одинакового значения плюс три отличные от них по значению и различные по значению между собой карты). § 11. ЗАДАЧИ И ДОПОЛНЕНИЯ ТЕОРЕТИЧЕСКОГО ХАРАКТЕРА 1. Генеральная совокупность из п элементов включает в себя пр красных и nq черных (p-[-q=l). По схеме выбора с возвращением извлекается случайная вы- борка объема г. Показать, что вероятность того, что она содержит ровно k крас- ных элементов, равна (Ц.1) 2. Предельная теорема для гипергеометрического распределения. Если п велико и пДп = р, то вероятность д#, задаваемая соотношениями (6.1) и (6.2)f близка к (11.1). Точнее, <qk<(k)pkqr~,i* (1L2)
78 Г л. 11. Элементы комбинаторного анализа Сравнение этой задачи с предыдущей показывает, что для больших генеральных совокупностей практически нет разницы между выбором с возвращением и выбо- ром без возвращения. 3. Из генеральной совокупности, содержащей п элементов, по схеме выбора без возвращения извлекается случайная выборка объема г. Вероятность иг того, что в выборке будут содержаться N данных элементов, равна иг=("_^)(") . (И.З) (Соответствующей формулой для выбора с возвращением является (11.10), но она не может быть получена прямыми рассуждениями. Другой вид записи (11.3) см. в задаче 9 гл. IV, 6.) 4. Предельный случай. Если п—> со и г—>оо так, что г In—> р, то > pH (см. задачу 13). Замечание1). Задачи 5—13 относятся к классической задаче о размещении (статистика Максвелла — Больцмана); иначе говоря, г частиц размещаются ло п ячейкам и каждое из пг возможных распределений имеет вероятность п ~г. 5. Вероятность р^ того, что данная ячейка содержит ровно k частиц, задается биномиальным распределением (4.5). Наиболее вероятным значением k является целое число v, такое, что (г — /1Д- 1)/и < v (r-j- 1)/п. (Иначе говоря, утверждается, что р0 < рг < ... < pv_r > pv+1 > ... > pr\ ср. с задачей 15.) 6. Предельное распределение. Если п—> оо и г—> оо так, что среднее число К = г/п частиц на ячейку остается постоянным, то (Н.4) (Это — распределение Пуассона, обсуждаемое в гл. VI; относительно соответст- вующей теоремы для статистики Бозе — Эйнштейна см. задачу 16). 7. Пусть Л (г, п) — число размещений, при которых ни одна ячейка не остается пустой. При помощи комбинаторных рассуждений показать, что г Л (г, »+!)=£ (0 А (г-Л я). (11.5) k= 1 Вывести отсюда, что п А (г, я)=£ (-‘)v (") (я-v)'. (11.6) v=o Указание. Воспользоваться индукцией: предположить, что (11.6) выполня* ется, и в соответствии с ним выразить А (г—k, п) в (11.5). Изменить порядок сум* мирования и использовать формулу бинома для представления А (г, п-\-1) в виде разности двух простых сумм. Заменить во второй сумме v+1 новым индексом сум- мирования и использовать (8.6). Замечание. Формула (11.6) дает теоретическое решение поставленной задачи,- но, очевидно, было бы неблагодарной работой использовать ее для вычисления, скажем, вероятности х того, что в деревне с г= 1900 жителями каждый день в го- ду является днем рождения. В гл. IV, 2 мы выведем (11.6) другим способом и по- х х) Задачи 5—19 играют определенную роль в квантовой статистике, теории светочувствительных материалов, счетчиков Гейгера — Мюллера и т. п. Поэтому некоторые формулы часто обсуждались и заново открывались в физической лите- ратуре, зачастую без выявления их классического и совершенно элементарного характера. Возможно, все эти задачи (хотя и в иной постановке) имеются в книге Уитворта, цитированной в начале этой главы»
11. Задачи и дополнения теоретического характера 79 лучим простую приближенную формулу (показывающую, например, что прибли- зительно х=0,135). 8. Показать, что число распределений, оставляющих ровно т ячеек пустыми, равно п-т Ет(г, п)=^)А(г, п-т) = (") ^(-iy^~^(n-m-vy, (Ц.7) V —о 9. Не используя предыдущие результаты, показать, что вероятность Рт У, п) = П~гЕт (г, п) того, что имеется ровно т пустых ячеек, удовлетворяет уравнению Рт(Г-у\, n) = pm(r, п) (n—m)/n + pm+i(r, п) (т4~1)/п. (11.8) 10. Используя результаты задач 7 и 8, показать прямыми вычислениями, что (11.8) выполняется. Показать, что этот метод обеспечивает новый вывод (индукцией по г) (11.6). 11. Из задачи 8 получить, что вероятность хт (г, п) того, что не менее т ячеек остаются пустыми, равна п-т v=o (При т^п это выражение равно нулю, как и должно быть.) Указание. Показать, что хт (г, п)—рт (г, п)=хт + 1 (г, п). 12. Вероятность того, что каждая из N заданных ячеек занята, равна и(г,п)=п-г^ (Jk) A(k, N) (n-Ny-b, (11.10) k=0 Вывести отсюда, что N <11И> v=o (Использовать формулу бинома. Для N — п имеем и (г, п) =п~гА (г, п). За- метим, что (11.11) является аналогохМ (11,3) для выбора с возвращениемх), Другой вывод см. в задаче 8 гл. IV, 6.) 13. Предельный случай. При предельном переходе, описанном в задаче 4, получается и (г, п) —> (1—e~P)Nt Замечание. В задачах 14—19 г и п имеют тот же смысл, что и ранее, но мы предполагаем, что шары неразличимы и все различимые размещения имеют равные вероятности (статистика Бозе — Эйнштейна). х х) Заметим, что и(г, п) можно интерпретировать как вероятность того, что время ожидания до момента, когда М-й элемент присоединится к выборке, меньше г. Результат может быть применен к случайному выбору цифр: здесь и(г, 10)— —и (г—1, 10) есть вероятность того, что потребуется последовательность из г эле- ментов, для того чтобы она включала все 10 цифр. Этот результат можно исполь- зовать в качестве критерия случайности. Р. Гринвуд (Greenwood R. Е., Coupon collector’s test for random digits, Mathematical Tables and Other Aids to Computa- tion, 9 (1955), 1—5) табулировал это распределение и сравнил его с результатами, которые дают соответствующие времена ожидания для первых 2035 десятичных знаков л и первых 2486 десятичных знаков е. Медиана времени ожидания полного набора всех десяти цифр равна 27. Вероятность того, что это время ожидания превзойдет 50, больше 0,05, а вероятность того, что время ожидания превзойдет 75, приблизительно равна 0,0037,
80 Гл. 1J. Элементы комбинатор него анализа 14. Вероятность того, что заданный ящик содержит ровно k шаров, равна (И.12) 15. Показать, что при п>2 наиболее вероятным числом шаров в любом задан- ном ящике является нуль или, точнее, qQ>qi>. . . (ср. с задачей 5). 16. Предельная теорема. Пусть п—>оо и г—>оо так, что среднее число шаров на ящик г!п стремится к X; тогда qk —>Х^/(1+Х)Л+1. (11.13) (Правая часть известна под названием гео метрического распределения.) 17. Вероятность того, что ровно т ящиков остаются пустыми, равна С+г'Г <"<> 18. Вероятность того, что группа из т фиксированных ящиков содержит в сумме ровно / шаров, равна ?/('«)=(m+iT1)(”_/”t-r/_1)C+r~1)’1- <11Л5) 19. Предельное распределение. При переходе к пределу, как в задаче 4, имеем (Правая часть является частным случаем отрицательного биномиального распре- деления, которое будет введено в гл. VI, 8.) Теоремы о сериях. В задачах 20—25 мы рассматриваем последовательности из альф и г2 бет и предполагаем, что все они имеют одинаковые вероятности 1см. пример 4, д)). Эта часть задач связана с разд, б § 5. 20. Вероятность того, что последовательность содержит ровно k серий обоих типов, равна при четном k (k — 2v) и (.„HlVXtlHtlX'CJK'tr' <"•>»> при нечетном k (& = 2v4-l). 21. Продолжение. Доказать, что наиболее вероятным числом серий яв- ляется целое число k, такое, что 2г1г2/(г£4-г2) < & < 2/'1Г2/(п: + г2)+ 3, (Указание. Рассмотреть отношения p2v+2/p2v и P2V+1/P2V.-,)- 22. Вероятность того, что последовательность начинается с серии альф длиной v^sO, равна (rj^/^i + ^v+i- (Указание. Выбрать v альф и бету, которая должна следовать за ними.) Что вытекает из этой теоремы при v —0? 23. Вероятность появления ровно k серий из альф равна р^=(гк~\)(г^(г^Г • (11Л9) Указание. Это легко следует из второй части леммы § 5. Кроме того, формулу (11,19) можно вывести из (11.17) и (11.18), но этот вывод более трудоемок. 24. Вероятность того, что n-й альфе предшествуют ровно т бет, равна
fl 12. Задачи, содержащие биномиальные коэффициенты 81 25. Вероятность того, что альфы образуют k серий, из которых kt имеют длину 1, k2 pjimiy 2, kv длину v (&f +1 *•+&v = &), равна да/ГГГ-Г' § 12. ЗАДАЧИ И ТОЖДЕСТВА, содержащие биномиальные коэффициенты 1, Для целого п^2 1-(”) + (2)-+-=°> («)+2(«)+3(^) + ...=п2-1, (")-2(^+з(")-+...=°, (12Л) 2-1 (з)+3-2(з)+4.з(2) + ...=«(« — !) 2«~2. Указание. Использовать формулу бинома. 2. Доказать, что для целых положительных п и k (?) ©-CD GCD+© (Й) - ± (“) ("»'’)-'>• <ад Более общее соотношение имеет вид1) Е(:)(Г">=©(1+/)Й* <12-3) 3. Для любого а > О (~^) = (-1)А(д+|-1). (12.4) Если а является целым, то это утверждение может быть доказано также повторным дифференцированием геометрической прогрессии х^=(1—х)~1» 4. Доказать, что 1(2„-2}2.,„1_(_1),,.i(-I/2-). <12'5) 5., Для целых неотрицательных п и г и для любых действительных а v=o Указание. Воспользуйтесь (8.6). Обычно используется частный случай п = а* 6. Для произвольного а и целого У (- !)v (“) = (-1)” 1) • (12-7) V=o Указание. Воспользуйтесь (8.6). х) Читателю следует вспомнить соглашение (8.5): если v пробегает все целые числа, то в сумме (12,3) только конечное число слагаемых отлично от нуля,
82 Гл. II. Элементы комбинаторного анализа & 7. Для целых положительных г и k МИг’Н'С'© <12-®> v= о а) Доказать это равенство, используя (8.6). б) Показать, что (12.8) — частный случай (12.7). в) Показать по индукции, что (12.8) приводит к новому дока- зательству первой части леммы § 5. г) Показать, что (12.8) эквивалентно равенству Ё ©)-("©). 02-м / — О 8. В § 6 мы отмечали, что члены гипергеометрического распределения должны давать в сумме единицу, Это равнозначно тому, что для любых це« лых положительных а, Ь, п ©©©?)©©+•+©©-©©• <129> Доказать это по индукции. Указание. Сначала доказать, что (12.9) выпол- няется для а=\ и любого Ь. 9. П родолжение. Сравнивая коэффициенты при tn в обеих частях равен- ства (1 + /)й (1 + 0&=(1 + /)а + &, (12.10) доказать, что (12.9) справедливо для любых чисел а, b (и целых п). 10. Используя (12.9), доказать, что (©+©+(?)+-+©-(© 11. Используя (12.11), доказать, что v=o 12. Доказать, что для целых 0 < а < b <12лз) /г=1 Указание. Используя (12.4), показать, что (12.11) является частным слу^ чаем (12.9). Другое доказательство состоит в сравнении коэффициентов прй 1а~1 в тождестве (1 — t)a (1 — /)-&~2 = (1 — /)«-&-2. 13. Вывести из (12.9) тождества ©-(4_.)+-.'.т(?)±1-(°71) и Е<-()' ©(V© СИ' <12-15> V имеющие место, если k, п и г—целые положительные числа. Указание Использовать (12.4).
§ 12. Задачиt содержащие биномиальные коэффициенты 83 14. Используя (12.9), доказать, что1) для произвольных at b и целого k k (I2J6> / = 0 Указание. Дважды применить (12.4). Другой способ — использовать (12.10), изменив знаки показателей. Отметим важные частные случаи Ь=\, 2. 15. Обращаясь к задачам § 11, отметим, что (11.12), (11.14), (11.15) и (11.16) определяют вероятности, поэтому в каждом случае их сумма должна равняться единице. Показать, что это вытекает соответственно из (12.8), (12.9), (12.16) и формулы бинома. 16. Из определения Л (г, /?) в задаче 7 § 11 следует, что Л (г, /г) = 0, если г < и, и Л (/г, ri) = n\. Иначе говоря, ССЛЙ г<п> “ 7 \k J [nA, если г = п. (12.17) а) Доказать (12.17) непосредственной редукцией от п к п—1. б) Доказать (12.17), рассматривая r-ю производную (1—е1)п при / = 0. в) Обобщить (12.17), исходя из (Н.Н) вместо (11.6). 17. Доказать по индукции, что если 0^ N^п, то для любого целого v . „V [ N \ . . /п—NX . (12.18) (Заметим, что правая часть обращается в нуль, если г < N или г > п.) Про- верить (12.18), рассматривая r-ю производную 1п~-М (t—1)^ при /=1. 18. Доказать по индукции (используя формулу бинома), что (1)т~(2)!+•*•+(- о"-1 (-г=1+т+т+”*+1’ (12л9) п — I Проверить (12.19) интегрированием тождества (1 —0V — U — (1 — о 19. Доказать, что для любого целого положительного т (х + у + г)'- - £ ЖГ Х<1уЬгС’ (12-20) где суммирование проводится по всем целым неотрицательным а, Ь, щ таким£ ^то а^Ь-\-с = т. 20. Показать, что Г(а-|-1) = дГ (о)2 *) для любого а > 0, откуда [ k 4 k\V (а) ’ (12.21) 21. Доказать, что для любых положительных целых а и b (rz+l)(tz + 2) ... (а + п) ~ Ь\ ъ {b-j- 1) (Ь-}-2) а! (12.22) х) Более изящное доказательство см. в задаче 15 гл. 1Х^ 9. 2) Функция Г (а) (гамма-функция) определена ниже; см. формулу (12.23). —, Прим, перев.
84 Гл. 11. Элементы комбинаторного анализа ____________________ 22. Гамма-функция определяется равенством Г (х) = J tx-'e-i di, (12.23) о где х > 0. Показать, что Г (х) ~)/2ле~х хх~1^. (Заметим, чтоесли х = п-^ целое число, то Г (n) = (/2—1)!.) 23. Пусть а и г—произвольные положительные числа, а п—целое поло- жительное число. Показать, что a(a+r)(a + 2r)...(a + nr) ~ Cr«+1/in+1/2 + a/r. (12.24) Постоянная С равна ]/”2л;/Г (a/r). 24. Используя результаты предыдущей задачи, показать, что a(g+r)(a+2f)...(g-Hf) Г (6/г) ia-b)/r Л 9 964 b(b + r)(b-\-2r)...(b + nr)^ Г(а/г) ' ' ’ 25. Вывести из (8.10) неравенство ^tld-t) < j_z < е- t. о < t < 1. (12.26)
ГЛАВА III *j ФЛУКТУАЦИИ ПРИ БРОСАНИИ МОНЕТЫ И СЛУЧАЙНЫЕ блуждания Эта глава стоит в стороне от нашей основной темы, которая будет теперь продолжена лишь в гл. V. Ее материал традиционно служил в качестве первого шага к более общим теориям. Простые методы вскоре приведут нас к результатам большой теоретической и прак- тической важности. Мы столкнемся с теоретическими заключениями, которые окажутся не просто неожиданными, но будут прямо про- тиворечить интуиции и здравому смыслу. Они покажут, что широко распространенные представления о случайных флуктуациях лишены основания и что смысл закона больших чисел часто неправильно ис- толковывается. Например, в различных приложениях предполага- ется, что наблюдения за результатами бросаний одной и той же монеты в течение длительного промежутка времени будут давать те же статистические характеристики, что и наблюдение результатов очень большого числа независимых бросаний в данный момент. Это не так. Действительно, мы придем к выводу, что (на распространен- ном ныне жаргоне) в популяции обычных монет большую их часть следует считать неправильными. (Эмпирические иллюстрации см. в § 6 и примере 4, б).) До недавнего времени материал этой главы получали с исполь- зованием аналитических методов, так что результаты казались довольно глубокими. Поэтому элементарный метод * * * * * х), используемый ниже, является хорошим примером вновь открытой силы комбина- торных методов. Результаты, справедливые для более широкого класса случайных флуктуаций 2), будут обсуждаться в томе 2. Все результаты будут получены заново, другими методами. Таким об- разом, эта глава предназначена для начинающих читателей, которые не спешат приниматься за систематическую теорию, или читателей, интересующихся духом теории вероятностей без желания специа- *) Эта глава может быть опущена или прочитана параллельно с последующими главами. Ссылки на нее будут сделаны в гл. X (законы больших чисел), XI (вре- мена первого достижения), XIII (рекуррентные события) и XIV (случайные блуж- дания), но материал главы в дальнейшем непосредственно использоваться не бу- дет. х) Открытие возможности элементарного подхода было основной причиной второго издания этой книги (1957 г.). Настоящий вариант является новым и зна- чительно усовершенствованным, так как в нем удалось избежать различных слож- ных комбинаторных приемов. 2) Смотри примечание к следствию из теоремы 2 § 4S
86 Гл. J J1. Флуктуации при бросании монеты; случайные блуждания ? лизироваться по ней. Для других читателей сравнение методов ока- жется поучительным и интересным. Таким образом, настоящая глава может быть прочитана по усмотрению читателя независимо от остальной части книги или параллельно с ней, § 1. ОСНОВНЫЕ ПОНЯТИЯ. ПРИНЦИП ОТРАЖЕНИЯ С формальной точки зрения мы будем иметь дело с упорядочен- ными конечными множествами плюс единиц и минус единиц. Рас- смотрим n=p-\-q символов 8Ъ . . ., 8П, каждый из которых означает + 1 или —1; предположим, что имеется р плюс единиц и q минус единиц. Частная сумма sft=8i+. . представляет собой раз- ность между числом плюсов и минусов, находящихся на первых k местах. Тогда SA—sA-i = eA = ± 1, so = O, Sn = p—q, (1.1) где k = 1, 2, ..n. Мы будем применять геометрическую терминологию и использо- вать ортогональные координаты t, х\ для определенности будем предполагать, что ось t горизонтальна, а ось х вертикальна. После- довательность (81? . . ., 8П) будет изображаться ломаной, в которой Л-е звено имеет наклон 8ft, а k-я. вершина имеет ординату sk. Такие линии будут называться путями. Определение. Пусть и х — целые числа. Путь (si, s2, < . • .«., sn) из начала координат в точку (п, х) представляет собой ло- маную, верилины которой имеют абсциссы 0, 1, . . ., п и ординаты So, sb . о >, sn, удовлетворяющие (1.1) с sn=x. Мы будем называть п длиной пути. Существует 2" путей длины п. Если среди имеется р положительных и q отрицательных, то «=р+<7> x—p—q. (1.2) Путь из начала координат в произвольную точку («, х) существует только тогда, когда п и х удовлетворяют (1.2). В этом случае р мест для положительных &k могут быть выбраны из n=p+q имеющихся мест *,...= (ТНТ) М различными способами. Для удобства положим Nn,x—0, если п и х не удовлетворяют (1.2). При таком соглашении существуют ровно NniX различных путей из начала координат в произвольную точку (п, х). Прежде чем перейти к главной теме этой главы, а именно к тео- рии случайных блужданий, мы проиллюстрируем возможные при- ложения нашей схемы.
§ 7. Основные понятия. Принцип отражения 87 Примеры, а) Теорема о баллотировке (ballot theorem). Следую- щее интересное утверждение доказано в 1878 г. У. Уитвортом и заново в 1887 г. Ж. Бертраном. Предположим, что на выборах кандидат Р набрал р голосов, а кандидат Q набрал q голосов, причем p>q. Вероятность того, что при последовательном подсчете голосов Р все время был впереди Q, равна (p—q)/(p+q). Подобные задачи под названием задач о баллотировке привлекли внимание специалистов по комбинаторному анализу. Новый рас- цвет комбинаторных методов увеличил их популярность, и сейчас это выражается в том, что очень многие важные задачи могут быть переформулированы как варианты некоторой обобщенной задачи о баллотировка х). Весь протокол голосования может быть изображен в виде пути длины p+q, в котором efe= + l, если k-Й голос подан за Р; обратно, каждый путь из начала координат в точку (p+q, р—q) можно ин- терпретировать как протокол голосования с данными итогами р и q. Ясно, что sh есть число голосов, на которое Р опережал Q или отставал от него после учета й-го голоса. Кандидат Р лидировал на всем протяжении выборов только в том случае, когда Si>0, . . , ,.., sn>0, т. е. когда все вершины лежат строго выше оси t (Путь такого типа из О в изображен на рис. 1.) В теореме о баллотиров- ок N Рис. 1. Положительные пути. Рисунок показывает также, что существует ровно столько же положительных путей из начала координат в точку (2п, 0), сколько неотрицательных путей из начала координат в точку (2п—2, 0). ке неявно предполагается, что все возможные пути равновероятны. Тогда ее утверждение сводится к теореме, доказанной в конце этого параграфа как непосредственное следствие леммы об отражении. б) Ранговый критерий Гальтона * 2). Предположим, что некоторая величина (например, высота растения) измеряется у каждого из г подвергнутых воздействию объектов и также у каждого из г конт- рольных объектов. Обозначим результаты измерений а±, . . ., аг п 1л, . . ., Ьг соответственно. Для ясности предположим, что каждая группа упорядочена по убыванию: а1>а2>-^ и Ь1>Ь2>.^. ♦ (Во г) Историю вопроса и обзор литературы можно найти в статье Barton D. E.f Mallows С. L., Some aspects of the random sequence, Ann. Math. Statist., 36 (1965), 236—260. Авторы этой статьи обсуждают также различные приложения. Самое последнее обобщение со многими приложениями к теории очередей принадлежит Л. Такачу. 2) Hodges J, L.? Biometrica, 42 (1955), 261—262»
88 Гл. Ill. Флуктуации при бросании момнеты; случайные блуждания избежание тривиальности мы предполагаем, что никакие два ре- зультата наблюдения не равны.) Объединим теперь эти две после- довательности в одну с числом элементов п=2г и упорядоченную по убыванию. Предшествование всех значений а всем значениям b указывает на весьма высокую эффективность воздействия, тогда как случайная комбинация значений а и b означает полную его бесполезность. Таким образом, об эффективности воздействия мож- но судить на основании числа различных значений а, предшествую- щих соответствующим Ь, т. е. на основании числа индексов k, для которых ak>bk. Эта идея впервые была использована Ф. Гальтоном в 1876 г. для исследования данных, предоставленных ему Чарльзом Дарвином. В этом случае г было равно 15 и в 13 случаях значения а предшествовали соответствующим значениям Ь. Не зная реальных вероятностей, Гальтон заключил, что воздействие было эффективным. Однако в предположении полной случайности вероятность того, что значения а предшествуют соответствующим b в 13 или более случаях, равна 3/16. Это означает, что в трех из шестнадцати слу- чаев совершенно бесполезное воздействие будет казаться не менее эффективным, чем воздействие, эффективное по Гальтону. Это пока- зывает, что численный анализ может быть полезным дополнением к нашей не совсем надежной интуиции. Для интерпретации при помощи путей положим £^ = + 1 или —1 в зависимости от того, элементом какого типа является &-й член объединенной последовательности: а или Ь. Полный путь длины 2г соединяет начало координат с точкой (2г, 0) на оси I. Событие ak>bh осуществляется тогда и только тогда, когда s2k_1 содержит по мень- шей мере k плюс единиц, т. е. когда s2k_t >0. Это влечет s2fe^0, и поэтому (2k—1)-е и 2^-е звенья лежат выше оси t. Отсюда следует, что неравенство akZ>bk выполняется v раз тогда и только тогда, когда 2v звеньев лежат выше оси Л В § 9 мы докажем неожиданный результат, состоящий в том, что вероятность этого равна 1/(г+1) и не зависит от v. (Соответствующие критерии, основанные на тео- рии серий, см. в разд, б гл. II, 5.) в) Критерии типа Колмогорова — Смирнова, Предположим, что мы наблюдаем две популяции одинакового биологического вида (животных или растений), находящиеся в разных местах, или что мы хотим сравнить продукцию двух аналогичных станков. Для определенности рассмотрим только одну поддающуюся измерению характеристику (например, высоту, вес или толщину) и предполо- жим, что для каждой из двух совокупностей мы имеем г наблюде- ний, скажем а±, . . ., аг и bi, . . ., br. Грубо говоря, вопрос заклю- чается в том, совместимы ли эти данные с гипотезой о том, что обе совокупности статистически идентичны. В этом виде задача нес- колько неопределенна, но для наших целей нет необходимости об- суждать более точную ее постановку в современной статистической теории. Достаточно сказать, что критерии основаны на сравнении двух эмпирических распределений. Для каждого t обозначим через
§ 1. Основные понятия. Принцип отражения 89 А (/) отношение klr, где k — число индексов г, для которых a^t. Так определенная на действительной оси функция называется эм- пирическим распределением значений а. Эмпирическое распределе- ние В определяется аналогично. Изящная математическая теория, созданная Н. В. Смирновым х), позволяет найти распределение вероятностей максимума отклоне- ния |Л (/)—В (/)| и других величин, которые могут быть использо- ваны для проверки указанной гипотезы. Теория довольно сложна, но она была значительно упрощена и сделана более понятной Б. В. Гнеденко, которому пришла удачная мысль связать ее с геомет- рической теорией путей. Как и в предыдущем примере, свяжем с дву- мя выборками путь длины 2г, ведущий из начала координат в точку (2г, 0). Сказать, что две совокупности статистически неразличимы, все равно, что сказать, что все возможные пути равновероятны. Тог- да легко видеть, что |Л (/)—В (i) |>£ для некоторого t тогда и толь- ко тогда, когда \sh |>gr для некоторого k. Вероятность этого собы- тия есть просто вероятность того, что путь длины 2г, ведущий из начала координат в точку (0, 2г), не ограничен полосой между ±£г, Эта вероятность давно известна, потому что она связана с задачей о разорении игрока и физическими задачами диффузии с поглощаю- щими барьерами (см. задачу 3). Этот пример выходит за рамки настоящей книги, но он показы- вает, как теорию случайных блужданий можно применять к зада- чам совершенно различной природы. г) Игра с бросанием правильной монеты и ее связь со случайными процессами. Путь длины п можно интерпретировать как результат мыслимого эксперимента, состоящего в п последовательных броса- ниях монеты. Если +1 приписывается гербам, то sh равна положи- тельной или отрицательной разности между суммарным числом гербов и решеток после k-ro бросания. При классическом описании вводится фиктивный игрок Петр, который в каждом испытании вы- игрывает или проигрывает определенную денежную единицу. Тогда последовательность sb s2, . .sn представляет собой последователь- ные значения его прибыли. Вскоре будет показано, что они явля- ются результатами случайной флуктуации с совершенно неожидан- ными свойствами. Образный язык азартных игр не уменьшает важности модели с бросанием монеты. В самом деле, эта модель может служить как первое приближение ко многим более сложным случайным процес- сам в физике, экономике и теории обучения. Такие величины, как энергия физической частицы, состояние индивидуума и накоплен- ный опыт крысы предполагаются изменяющимися вследствие по- х) Смирнов Н. В. Об уклонениях эмпирической кривой распределения.— Матем. сборник, 1939, т. 6 (48), № 1, с. 3—24; см. также Смирнов Н. В. Теория ве- роятностей и математическая статистика. Избранные труды,— Мл Наука, 1970.—• Прим, перев,
90 Гл. Il J. Флуктуации при бросании монеты* случайные блуждания следовательных случайных воздействий некоторого рода. В целях упрощения первоначального изучения предполагают, что отдель- ные приращения имеют одинаковую величину и что их знак опре- деляется игрой с бросанием монеты. Более совершенная модель при- нимает в расчет, что приращения и их вероятности изменяются от испытания к испытанию, но даже простая модель с бросанием моне- ты приводит к удивительным, даже потрясающим результатам. Эти результаты имеют большое практическое значение, так как показы- вают, что вопреки распространенным взглядам законы, характери- зующие длинные серии отдельных наблюдений, обнаруживают боль- шие отклонения от свойств популяции. Иначе говоря, популярные в наше время психологические тесты привели бы к тому, что в сово- купности из «правильных» монет большинство было названо «не- правильными». Отсюда следует, что случайные флуктуации при бросании моне- ты типичны для более общих случайных процессов накопления. Во всяком случае это приводит к констатации того, что, коль скоро даже простая игра с бросанием монеты приводит к парадоксальным результатам, противоречащим нашей интуиции, последняя не может служить надежным советчиком в более сложных ситуациях. Столь же удивительно, сколь и приятно, что наиболее важные заключения могут быть получены из приведенной ниже простой леммы. Рис. 2. принцип отражения. Пусть Л=(а, а) и В=^(Ь, |3) — точки с целочисленными коорди- натами, лежащие в положительном квадранте: оОО, Р>0. Под отражением А относительно оси t понимается точка Л'=(а, а) (рис. 2). Путь из Л в В определяется обычным образом. Лемма. (Принцип отражения х).) Число путей из А в В, которые касаются оси t или пересекают ее, равно числу всех путей из А' в В. я) Принцип отражения часто используется в различных формах, однако без Геометрической интерпретации он кажется остроумным, но непонятным трюком. В вероятностной литературе этот принцип приписывается Д. Андрэ (1887 г.). Он появляется в связи с разностными уравнениями для случайных блужданий
§ 2, Случайные блужданий 91 Доказательство. Рассмотрим путь (sa = a, sfl+i, . ..,s& = Р) из А в В, имеющий одну или несколько вершин на оси t. Пусть t—• абсцисса первой такой вершины (рис. 2), т. е. выберем t так, что sa > 0, .> 0, sz = 0. Тогда ( •••> 5^ = 0, S^ + j, S/ + 2, •••, S&) представляет собой путь, ведущий из Л' в В и имеющий в качестве первой вершины на оси t точку Т0). Звенья АТ и А'Т являются отражениями одно другого, поэтому существует взаимно однознач- ное соответствие между всеми путями из А' в В и такими путями из А в В, которые имеют вершины на оси t. Это доказывает лемму. В качестве непосредственного следствия мы докажем результат, обсуждавшийся в примере а). Это будет служить отправной точкой для всей теории настоящей главы. Теорема о баллотировке. Пусть п и х — целые положительные числа. Существует ровно (x/ri)Nn,x путей (%, . . sn=x) из начала координат в точку (п, х), таких что 8ь>0, . . ., sn>0. Доказательство. Очевидно, существует столько же допустимых путей, сколько существует путей из точки (1,1) в точку (п, х), кото- рые не касаются оси t и не пересекают ее. В силу последней леммы число таких путей равно N - — N- * * 72 — 1 . У — 1 * ’ п — 1 . V 4-1 I „ 1 / I — 19 *’П-1,Х-1 Л’П-1,Х + 1 i р 1 J р J ’ где р и q определены в (1.2). Простые вычисления показывают, что правая часть равна Nn,x(p—q)/(p+q)9 как и утверждалось. ► § 2. СЛУЧАЙНЫЕ БЛУЖДАНИЯ; ОСНОВНЫЕ ПОНЯТИЯ И ОБОЗНАЧЕНИЯ Игра с бросанием идеальной монеты теперь будет описана при помощи случайных блужданий, которые привлекают своей нагляд- ностью и лучше приспособлены для обобщений. Как показано в предыдущем примере, если путь (sb . . ., sp) рассматривается как запись результатов р последовательных бросаний монеты, то част- ные суммы sx, . . ., представляют собой последовательные значе- ния прибыли. Для геометрического описания удобно предположить, что бросания выполняются через равные интервалы времени, так чго п-в испытание осуществляется в момент времени п. Последова- в гл. XIV, 9, соответствующими некоторым дифференциальным уравнениям в частных производных, для которых принцип отражения является хорошо извест- ным приемом, называемым методом подобия, Он обычно приписывается Максвеллу и Кельвину, Об использовании повторных отражений см, задачи 2 и 3,
92 Гл. III. Флуктуации при бросании монеты; случайные блуждания тельные частные суммы Si, . . ., sn будут изображаться точками на вертикальной оси х\ они будут называться положениями «части- цы», совершающей случайное блуждание. Заметим, что частица движется единичными шагами вверх или вниз на прямой. Путь представляет собой график такого движения. Например, путь из О в N на рис. 1 означает случайное блуждание, заканчивающееся через шесть шагов возвращением в начало. Каждый путь длины р можно интерпретировать как результат некоторого случайного блуждания; имеется 2Р таких путей, и мы Приписываем вероятность 2~р каждому. (Другие распределения вероятностей будут введены в гл. XIV. Для того чтобы отличить рассматриваемое случайное блуждание от других, назовем его симметричным.) Мы завершили определение пространства элементарных событий и вероятностей на нем, но беспокоит зависимость их от числа р. Для того чтобы выяснить его значение, рассмотрим событие, состоя- щее в том, что путь проходит через точку (2, 2). Первые два шага должны быть положительными, и поэтому существует 2Р~2 путей с этим свойством. Как и следовало ожидать, вероятность этого собы- тия равна 1/4 независимо от значения р. В более общем случае для любого k^p существует 2Р"^ путей с фиксированным поведением на первых k шагах. Отсюда следует, что событие, определенное первыми k^p шагами, имеет вероятность, не зависящую от р. Поэтому на практике число р не играет роли, если оно достаточно велико. Ина- че говоря, любой путь длиной п может рассматриваться как началь- ная часть очень длинного пути, и нет необходимости определять длину последнего. И с интуитивной, и с формальной точки зрения наиболее удобно рассматривать неограниченные последовательности испытаний, но это привело бы к использованию несчетных прост- ранств элементарных событий. Поэтому в дальнейшем будем счи- тать, что длины р путей, составляющих пространство элементарных событий, больше числа шагов, фигурирующего в наших формулах. За исключением этого, мы будем с радостью позволять себе забывать о р. Для того чтобы согласовать символику с той, которая будет использоваться в общей теории, мы обозначим отдельные переме- щения через Xf, Х2, ..., а положения частицы через Sf, S2, ... . Таким образом, S„ = Xi+...+X„, So = O. (2.1) Для каждого конкретного пути можно указать соответствующие значения Х4, Х2, ..., т. е. Xk являются функциями пути1). На- пример, для пути на рис. 1, очевидно, Xi==X2 = X4== 1, а Х3 =; = Х6 = Х6 = —1. х) По терминологии, которая будет введена в гл. IX, Х„ представляют собой случайные величины.
2. Случайные блуждания 93 Как правило, мы будем описывать все события заданием под- ходящих условий для сумм Sk. Таким образом, событие «в момент времени п частица находится в точке г» будет обозначаться так: |Sn = r}. Его вероятность будем обозначать через рп,г. (Это со- бытие мы будем называть попаданием1) в точку г в момент вре- мени /г.) Число N п, г путей из начала координат в точку (п, г) дается соотношением (1.3), и, следовательно, P„r = P(S„ = r(_((,+“)/2)2-, (2.2) где подразумевается, что биномиальный коэффициент равен нулю, когда (zi + r)/2 не является целым числом, лежащим между 0 ип. Если Sft = 0, то возвращение в начало происходит в момент времени k. Здесь k обязательно четно и для fe = 2v вероятность возвращения в начало равна p2Vj 0. Так как эта вероятность часто встречается в дальнейшем, введем для нее специальное обозначение u2V. Таким образом, u2v=(2J)2-2v. (2.3) Когда биномиальный коэффициент выражен через факториалы, формула Стирлинга (9.1) гл. II непосредственно дает «2v ~ 1/ИJtv, (2.4) где знак ~ указывает, что отношение левой и правой части стре- мится к 1 при v —> оо; правая часть служит прекрасным прибли- жением 2) для u2V даже для небольших значений v. Среди возвращений в начало особый интерес представляет пер- вое возвращение. Первое возвращение происходит в момент време- ни 2v, если St=^= 0, ..., S2V_1^0, но S2v = 0. (2.5) Вероятность этого события будет обозначаться f2V. По определе- нию fQ = 0. Связь между вероятностями f2n и и2п представляет большой интерес. Попадание в начало в момент времени 2п может быть либо первым возвращением, либо первое возвращение произошло в момент времени 2k < 2п и далее за время 2п—2k вновь про- изойдет возвращение в начало. Вероятность последнего события равна f2ku2n_2k, так как имеется 22kf2k путей длины 2k, оканчи- вающихся с первым возвращением, и %2n~2ku2n_2k путей из х) В оригинале visit. — Прим, перев. 2) Для истинного значения u1Q — 0,2461 мы получаем приближение 0,2523; для t/20 = 0,1762—приближение 0,1784. Относительная погрешность убывает, грубо говоря, обратно пропорционально v.
94 Гл. IIJ. Флуктуации при бросании монеты; случайные блуждания точки (2£, 0) в точку (2п, 0). Отсюда следует, что ^2п = f 2^2п-2 4” f 4^272-4 “Ь • • • 4“ f 2/2^0» /1^1. (2-6) (См. задачу 5.) Нормальное приближение. Формула (2.2) не пригодна для прямого вы- числения вероятностей попадания Szz в заданные границы. Для этих целей служит приближенная формула, которая представляет собой частный случай центральной предельной теоремы и будет доказана в гл. VII, 21). Вероятность того, что а < Sn < b, получается суммированием вероятно- стей рп, г по всем г, лежащим между а и Ь. Для ее определения достаточно знать вероятности выполнения всех неравенств вида Sn > а. Такие вероятно- сти могут быть оценены благодаря тому факту, что для всех х при п—> оо 00 p{s„ > Л-К/7}—> 1-SR(X) = (1//2S) J е"^2 dt, (2.7) X где 5JJ — нормальная функция распределения, определенная в гл. VII, 1. На данном этапе ее свойства не представляют для нас особого интереса. Суще- ствование предела означает, что при больших п отношения имеют приблизительно одни и те же вероятности, и, таким образом, одно и то же приближение может быть использовано одновременно для всех больших п. Хорошее представление о вероятностях (2.7) дает табл. 1. Более под- робной и точной является табл 1 гл. VII. Таблица 1 X 0,5 1,0 1,5 2,0 2,5 з,о р (S„ > х ) 0,309 0,159 0,067 0,023 0,006 0,001 § 3. ОСНОВНАЯ ЛЕММА Как мы видели, вероятность возвращения в начало в момент времени 2v равна величине u2v, задаваемой равенством (2.3). По мере развития теории случайных блужданий неожиданно выясни- лось, что эта вероятность входит почти во все формулы. Одну из причин этого раскрывает следующая простая лемма, не пред- ставляющая большого самостоятельного интереса, но позволяющая доказать более глубокие теоремы следующего параграфа. Лемма 1 2). Вероятность того, что до момента 2п включи- тельно не произойдет ни одного возвращения в начало, равна ее- ?) Частный случай, который нам здесь потребуется, исследуется в гл. VII, 2 отдельно (без ссылки на общее биномиальное распределение). Доказатель- ство простое и может быть помещено в данном месте. 2) Эта лемма очевидна, если использовать вид производящей функции 2 fzks2fi (см. формулу (3.6) гл. XI), и должна быть отмечена за ее познава- тельное значение. Ее важность была установлена недавно. Геометрическое доказательство см. в задаче 7*
§ 3. Основная лемма 95 роятности того, что возвращение в начало произойдет в мо- мент времени 2л, т. е. Р^О, ..., S2^0} = P{S2„ = 0} = «2„. (3.1) Здесь, конечно, п > 0. При осуществлении события в левой части все Sy- либо положительны, либо отрицательны. Оба этих со- бытия являются одинаково вероятными, поэтому мы можем пере- писать (3.1) в виде P{Si>0.......S2n > 0} = (1/2) м2ч. (3.2) Доказательство. Рассматривая все возможные значения S2n, очевидно, имеем P{S1>0, S2„>0} = i]P{S1>0, ...,S2„_j>0, S2„ = 2r} r = 1 (3.3) (где все слагаемые при г>ц равны нулю). По теореме о балло- тировке число путей, удовлетворяющих условию, указанному в пра- вой части, равно N2n_t, 2/-i—гг+i» и> следовательно, r-e слагаемое суммы равно (1/2) (p2n-it 2Г-1 Ргп-1, 2Г + 1)* Отрицательная часть r-го слагаемого и положительная часть (г + 1)-го слагаемого взаимно уничтожаются, поэтому в результате сумма (3.3) сводится к (1/2)р2л_Ь1. Легко проверить, что p2n-i, i = и2п> 4ewt завершается доказательство. ► Лемма может быть переформулирована различными способами* например P{S;>0.......S2„>0} = «2„. (3.4) В самом деле, путь длиной 2п, все вершины которого расположен^ выше оси t, проходит через точку (1, 1). Взяв эту точку в каче- стве нового начала координат, мы получим путь длины 2/г— все вершины которого лежат выше новой оси t или на этой оси, Отсюда следует, что P{S1>0, .... S2„>0} = (l/2)P{S1>0, ..., S2n_r>0}.(3.5) HoS2/z_1—нечетное число, и следовательно, из неравенства S2„_T^0 вытекает также, что S2„^0. Вероятность в правой части (3.5) равна вероятности в левой части (3.4), и тем самым (3.4) доказано. (См. задачу 8.) Лемма 1 непосредственно приводит к явному выражению для распределения вероятностей первого возвращения в начало. Сказать «первое возвращение произошло в момент времени 2ц» все равно что сказать «условие S( 0, ... ? S2^ 0 выполняется для k = п — 1 f
96 Гл. Ш. Флуктуации при бросании монеты; случайные блуждания но не выполняется для & = п». Используя (3.1), отсюда получаем f 2П = ^2ZZ—2 71=1, 2, ... • (3*6) После простых преобразований приходим к выражению /2„==[1/(2/г —(3.7) Таким образом, нами доказана следующая лемма. Лемма 2. Вероятность того, что первое возвращение в начало произошло в момент времени 2п, дается соотношением (3.6) или (3.7). Из (3.6) следует, что /2+^4+* • -^l- Применительно к бросанию монеты это означает, что если игра продолжается достаточно долго, то в конечном счете уравнивание шансов становится практически несомненным. Этого можно было ожидать и из интуитивных сооб- ражений, удивление вызывает лишь число необходимых для этого испытаний. Например, вероятность того, что уравнивания не было в течение 100 испытаний, приблизительно равна 0,08. § 4. ПОСЛЕДНЕЕ ПОПАДАНИЕ И ПРОДОЛЖИТЕЛЬНЫЕ ЛИДИРОВАНИЯ Мы готовы теперь к строгому анализу природы флуктуаций при случайных блужданиях. Результаты поразительны. Согласно ши- роко распространенному убеждению, так называемый «закон сред- них» должен гарантировать, что при длительном бросании монеты каждый из игроков будет в выигрыше примерно половину времени и лидерство будет нередко переходить от одного игрока к другому. Представим себе, что имеются записи огромного числа результатов игр с бросанием идеальной монеты, причем каждая из игр содержит ровно 2п испытаний. Выберем случайным образом одну из них и найдем момент времени, когда в последний раз счет в игре был ни- чейным (иначе говоря, номер последнего испытания, в результате которого суммарные числа появившихся гербов и решеток стали равными). Это число четно, и мы обозначим его через 2k (так что O^k^jt). Частая смена лидерства должна означать, что k будет сравнительно близко к п, но это не так. Действительно, приведен- ная ниже теорема обнаруживает удивительный факт: распределение k симметрично в том смысле, что любое значение k имеет в точности ту же вероятность, что и п—k . Эта симметрия означает, в частности, что неравенства k>n/2 и k<Zn/2 равновероятны х). С вероятностью 1/2 уравнение счета не будет иметь места во второй половине игры х) Симметрия распределения для k была обнаружена эмпирически на ЭВМ и доказана теоретически без знания точного распределения (4.1). См. Blackwell D., Deuel Р., Freedman D,, Ann, Math. Statist., 35 (1964), 1344*
§ 4. Последнее попадание и продолжительные лидирования 97 независимо от ее длительности. Более того, вероятности максималь- ны вблизи крайних точек; наиболее вероятными значениями k явля- ются 0 и п. Эти результаты показывают, что интуиция ведет к оши- бочной вероятностной картине случайных флуктуаций. Поясним сказанное численными примерами. Примеры, а) Предположим, что очень много игр с бросанием монеты проводится одновременно, каждая со скоростью одно бро- сание в секунду, днем и ночью, в течение года. В среднем в одной из десяти игр последнее уравнение счета произойдет в первые 9 дней, и лидерство не изменится в течение последующих 356 дней. В одном из двадцати случаев последнее уравнивание будет иметь место в первые 21/4дня, и в одном из ста случаев оно осуществится в течение первых 2 часов 10 минут. i б) Предположим, что во время учебного эксперимента, продол- жающегося в течение года, один ребенок постоянно был отстающим, за исключением, быть может, первой недели. Другой ребенок по- стоянно был впереди, за исключением, возможно, последней неде- ли. Можно ли этих двух детей считать одинаково способными? Далее, пусть группа из 11 детей подвергается такому же учебному экспе- рименту, основанному не на способностях, а исключительно на слу- чае. Один из одиннадцати будет лидером все время, кроме одной недели, другой — отстающим все время, кроме одной недели. Точные вероятности для возможных значений k следующая теорема. Теорема 1. (Закон арксинуса для последних попаданий.) Вероят- ность того, что до момента времени 2п включительно последнее по- падание в начальное состояние произойдет в момент 2k, равна 2« = k = Q, 1, • ••» П. (4.1) Доказательство. Мы интересуемся путями, удовлетворяющими условиями S2£ = 0 и S2£+1 =7^= 0, ..., S2n#=0. Первые 2k вершин можно выбрать %2ku2k различными способами. Взяв точку (2k, 0) в качестве нового начала координат и используя (3.1), мы видим, что остальные 2п—2k вершин можно выбрать 22п“2^2п_2А: спосо- бами. Разделив на 22п, получим (4.1). Из теоремы следует, что числа (4.1) в сумме дают единицу. Распределение вероятностей, которое приписывает точке 2k вес a2ftt 2п, называться дискретным распределением арксинуса порядка п по той причине, что функция, обратная синусу, дает отличное численное приближение к нему. Это распределение симме- трично в том смысле, что а2£, 2га = а2«-2/г, гга- При п —2 имеется три значения 3/8, 2/8, 3/8; для случая п = 10 см. табл. 2. Наимень- шее значение всегда имеет центральный член. 4 № 221
98 Гл. III. Флуктуации при бросании монеты' случайные блуждания Таблица 2 Дискретное распределение арксинуса порядка 10 /г = 0 /г=10 А = 1 /г = 9 /г = 2 /г = 8 /г = 3 /г = 7 £=4 /г=6 Л=5 а2Л. 20 0,1762 0,0927 0,0736 0,0655 0,0617 0,0606 Особенности распределений арксинуса хорошо видны из графика функции f (%) = 1/(л)/\(1—х)), 0<х<1. (4.2) При помощи формулы Стирлинга можно показать, что и2п близко к 1/^шг, если п не слишком мало. Это дает следующее прибли- жение: ^2k.in^0/n)f(xk), где xk = k/n, (4.3) погрешность которого незначительна, за исключением тех случаев когда k очень близко к 0 или к п. Величина, стоящая в правой части Рис. 3. График функции/(%)== 1/[л—я)]. Рисунок поясняет приближе- ние (4.3), (4.3), равна площади прямоугольника высотой f(xft), основанием которого является интервал длины i/n с центром в xk (см. рис. 3), Поэтому для 0<р</7<1 и больших п сумма вероятностей 2П при pn<Jz<qn приблизительно равна площади области, лежащей
§ 4. Последнее попадание и продолжительные лидирования 99 ниже графика f в пределах интервала р<х<ср Это остается спра- ведливым и для р=0, 7=1, потому что полная площадь области, лежащей ниже графика, равна единице, что выполнено также и для суммы всех a2fet2n- К счастью, интеграл от правой части (4.2) можно найти в явном виде, и мы получаем, что для фиксированного 0<х<С1 и достаточно большого п выполняется приближенное равенство 2 «26.2п » (2/зт) arc sin }/"х. (4.4) k < хп Заметим, что правая часть не зависит от п; это означает, что табл. 3 подходит для всех распределений арксинуса высокого порядка. (На самом деле приближения оказываются довольно хорошими даже для относительно малых значений п.) Таблица 3 Непрерывное распределение арксинуса А (х) = (2/л) arc sin х X А (х) X А (х) X Д (X) 0,00 0,000 0,20 0,295 0,40 0,436 0,01 0,064 0,21 0,303 0,41 0,442 0,02 0,090 0,22 0,311 0,42 0,449 0,03 0,111 0,23 0,318 0,43 0,455 0,04 0,128 0,24 0,326 0,44 0,462 0,05 0,144 0,25 0,333 0,45 0,468 0,06 0,158 0,26 0,341 0,46 0,474 0,07 0,171 0,27 0,348 0,47 0,481 0,08 0,183 0,28 0,355 0,48 0,487 0,09 0,194 0,29 0,362 0,49 0,494 0,10 о,н 0,12 0,13 0,14 0,15 0,16 0,17 0,18 0,19 0,205 0,215 0,225 0,235 0,244 0,253 0,262 0,271 0,279 0,287 0,30 0,31 0,32 0,33 0,34 0,35 0,36 0,37 0,38 0,39 0,369 0,376 0,383 0,390 0,396 0,403 0,410 0,416 0,423 0,429 0,50 0,500 Для х> 1/2 использовать равенство А (1-х)=Т-Л (х). Мы видели, что вопреки общераспространенным суждениям вполне вероятно, что в длительной игре с бросанием монеты один из игроков практически остается все время в выигрыше, а другой — в проигрыше. Следующая теорема объясняет то же самое явление путем анализа доли времени, проводимой частицей на положитель- ной стороне. Интуитивно может показатьсяt что наиболее вероятен 4*
100 Гл. Ill. Флуктуации при бросании монеты; случайные блуждания случай, когда эта доля будет близка к 1/2, но верно обратное: зна- чение, ближайшее к 1/2, является наименее вероятным, тогда как крайние точки k=Q и k—n имеют наибольшую вероятность. Анализ облегчается тем благоприятным обстоятельством, что в теореме вновь фигурирует дискретное распределение арксинуса (4.1), кото- рое дважды встретится нам в § 8. Теорема 2. (Закон дискретного арксинуса для времени пребы- вания.) Вероятность того, что в интервале времени от 0 до 2п частица 2k единиц времени проведет на положительной стороне и 2п—2k единиц времени на отрицательной, равна аь2к^2п. (Полное время, проведенное на положительной стороне, обяза- тельно четно.) Следствие1). Если 0 <х< 1, то вероятность того, что не более хп единиц времени будет проведено на положительной сто- роне и не менее (1—х)п на отрицательной, стремится к (2/л) arc sin ]/" х при п—> оо. Примеры, в) Вероятность того, что за двадцать бросаний монеты лидерство ни разу не перейдет от одного игрока к другому, при- близительно равна 0,352. Вероятность того, что более удачливый игрок будет лидировать в течение 16 или более единиц времени, примерно равна 0,685. (При х=4/5 следствие дает приближенное значение 0,590.) Вероятность того, что каждый игрок лидировал на протяжении 10 единиц времени, равна всего лишь 0,06 ?). г) Пусть п велико. С вероятностью 0,20 частица проведет около 97,6% времени на той стороне, куда она попала в самом начале. В одном из десяти случаев частица проведет на этой стороне 99,4% времени. 0 Поль Леви (Paul Levy, Sur certains processus stochastiques homogenes, Compositia Mathematica, 7 (1939), 283—339) установил закон арксинуса для бро- уновского движения и указал на связь с игрой с бросанием монеты. Общий пре- дельный закон арксинуса для числа положительных частных сумм в последова- тельности взаимно независимых случайных величин был доказан П. Эрдёшем и М. Кацем (Erdos Р., Кас М., On the number of positive sums of independent random variables, Bull. Amer. Math. Soc., 53 (1947), 1011—1020). Широкая область приме- нения предельного закона арксинуса казалась в то время непостижимой. Целая теория была создана заново, когда Э. Спарре Андерсен сделал удивительное от- крытие, заключающееся в том, что многие аспекты теории флуктуаций сумм не- зависимых случайных величин имеют исключительно комбинаторную природу (см. Mathematica Scandinavica, 1(1953), 263—285; 2 (1954), 195—223). Первоначаль- ные доказательства были очень сложными, но они дали новые методы исследования и сейчас сильно упрощены. Теорему 2 впервые доказали Чжун Кайлай и Феллер довольно сложными методами (см. гл. XII, 5—6 первого издания этой книги); теорема 1 — новая. Г 2) Указанные в этом примере вероятности заимствованы из таблицы, имев- шейся в предыдущих изданиях книги и исключенной автором из настоящего изда- ния. На с, 101 воспроизводится эта таблица, в которую включены данные о рас- пределении лидерства при 20 бросаниях монеты.
g 4. Последнее попадание и продолжительные лидирования 101 д) В примере а) монета бросается со скоростью одно бросание в секунду в течение 365 дней. Следующая таблица показывает время tpi такое, что с фиксированной вероятностью р менее удачливый иг- рок будет лидировать в течение всего времени, не превосходящего р 1р_ Р ip 0,9 153,95 дня 0,3 19,89 дня 0,8 126,10 » 0,2 8,93 » 0,7 99,65 » 0,1 2,24 » 0,6 75,23 » 0,05 13,5 часа 0,5 53,45 » 0,02 2,16 » 0,4 34,85 » 0,01 32,4 минуты ► Доказательство теоремы 2. Рассмотрим пути фиксированной длины 2/т и обозначим через b2kt 2п вероятность того, что ровно 2k звеньев лежат выше оси t. Мы’должны доказать, что 2V а2Л. 2V (4*5) Из (3.4) следует, что 62V# 2V = u2V, и в силу симметрии имеем также ^0,2V : ^2V* Поэтому достаточно доказать (4.5) для 1 k v—1. Предположим, что ровно 2k из 2п единиц времени проведено на положительной стороне и —1. В этом случае первое возвращение в начало должно осуществиться в некоторый момент времени 2г < 2п, и имеются две возможности. Во-первых, 2г еди- ниц времени до первого возвращения могут быть проведены на положительной стороне. В этом случае r^Zk^n— 1 и отрезок пути после вершины (2г, 0) имеет ровно 2k—2г звеньев над осью. Очевидно, число таких путей равно (l/2).2^2r.^^bift_8r. г„_2г. Во-вторых, 2г единиц времени до первого возвращения могут быть проведены на отрицательной стороне. В этом случае отрезок пути после вершины (2г, 0) имеет ровно 2k звеньев над осью, откуда fe=20 /г = 2 fc = 18 /г = 4 fe=16 /?=б /?=14 fe = 8 /г=1 2 Л?= 1 0 Pk,2Q 0,1762 0,0927 0,0736 0,0655 0,0617 0,0606 0,3524 0,5379 0,6851 0,8160 0,9394 1 Здесь Pk,2o — uku2o—вероятность того, что k отрезков пути лежат на поло- жительной стороне (т. е. «Петр лидировал после k из 20 испытаний»), а Pk,2o—вероятность того, что один из игроков лидировал не менее чем после k испытаний, другой же—не более чем после 20 —k испытаний.—Поим, передо
102 Гл. III. Флуктуации при бросании монеты; случайные блуждания п— r^k. Число таких путей равно (l/2).2=72r.^«-^^i2n_2r. Следовательно, при —1 k n-k ^2k.2n=^/^) 2 f2r^2^-2r, 2П-2Г 4" (V2) 2 Аг^/г, 2П-2Г’ (^.6) r=l r=l Применим теперь индукцию. Соотношение (4.5), очевидно, спра- ведливо при v = 1; предположим, что оно справедливо при v п— 1. Тогда (4.6) сведется к k n-k ^2k, 2/i (1/2)ц2п_2& 2 Аг^2&-2г 4" (V^) U2^ 2 /2г^2тг-2Л — 2r • Г=1 Г=1 (4.7) С учетом (2.6) получаем, что первая сумма равна u2k, тогда как вторая равна u2n_2k. Следовательно, (4.5) справедливо при v = n. (Удивительный результат, связанный с законом арксинуса, со- держится в задаче 4 гл. XIV, 9.) § 5*). ПЕРЕМЕНЫ ЗНАКА При теоретическом исследовании случайных флуктуаций мы столкнулись со многими парадоксами. Например, можно было бы наивно ожидать, что в длительной игре с бросанием монеты наблю- даемое число смен лидерства возрастает примерно пропорционально продолжительности игры. В игре, которая по времени длится вдвое больше, Петр будет лидировать вдвое чаще. Это интуитивное рас- суждение ошибочно. Мы покажем, что число смен лидерства в п испытаниях в определенном смысле возрастает лишь как У п\ в 100п испытаниях можно ожидать лишь в 10 раз больше перемен лидерства, чем в п испытаниях. Это еще раз доказывает, что время ожидания между последовательными уравниваниями является, как правило, фантастически долгим. Вернемся к терминологии теории случайного блуждания. Будем говорить, что в момент времени п произошла перемена знака, если и S„+i имеют противоположные знаки, т. е. если путь пересекает ось. В этом случае Sn = 0, и, следовательно, п—четное (положительное) целое число. Теорема 1 * х),. Вероятность 2n+i того, что до момента вре- мени 2п + 1 произойдет ровно г перемен знака, равна 2p2n+i, 2r+i*> *) Материал этого, параграфа не будет явно использоваться в дальнейшем, х) По поводу аналогичных теорем для числа возвращений в начало см. задачи 9 и 10. По поводу другого доказательства см. задачу 11.
§5. Перемены знака ЮЗ иначе говоря, ^2n+i-2P{S2n+i = 2r + l}, r = 0, 1, ... . (5.1) Доказательство. Мы начнем с того, что переформулируем теорему в более удобном виде. Если первый шаг ведет в точку (1, 1), возьмем эту точку в качестве начала новой системы координат. Тогда пересечению горизонтальной оси в старой системе соответ- ствует пересечение прямой, лежащей непосредственно под новой осью, т. е. пересечение уровня—1. Аналогичная процедура применима в том случае, когда 8!= — 1, и, таким образом, видно, что теорема полностью эквивалентна следующему утверждению: вероятность того, что до момента времени 2п уровень —1 будет пересечен ровно г раз, равна 2р2л+1> 2r+i. Рассмотрим сначала случай г = 0. Уровень —1 не будет пере- сечен тогда и только тогда, когда путь не коснется уровня —2 (и не пересечет его). В этом случае S2„ — неотрицательное четное целое число. Для k^Q из основной леммы об отражении § 1 за- ключаем, что число путей из (0, 0) в (2м, 2k), которые касаются уровня —2, равно числу путей в (2n, 2k -|- 4). Вероятность попасть в точку (2м, 2k), не коснувшись уровня—2, равна, следовательно, Ал, 2^—Ргп, 2^+4- Вероятность того, что путь не касается уровня — 2, равна сумме этих величин при й = 0, 1,2, ... . Внутренние члены взаимно уничтожаются, и мы находим, что наша вероят- ность равна р2п.о + р2«,2- Это доказывает утверждение при г = 0, потому что Ръп+1,1 ~ 0/2) (р^п, о 4" Р2п, 2)* (5-2) Это очевидным образом следует из того факта, что каждый путь, проходящий через точку (2п +1, 1), проходит либо через (2п, 0), либо через (2м, 2). Далее, пусть г = 1. Путь, пересекающий уровень —1 в момент времени 2v—1, может быть разделен на участок от (0, 0) до (2v, —2) и путь длины 2п—2v, выходящий из (2v, —2). К по- следнему участку применим результат при г = 0, поменяв местами плюс и минус. Таким образом, число путей длины 2п—2v, выхо- дящих из точки (2v, —2) и не пересекающих уровень — 1, равно числу путей из (2v, —2) в (2п +1, —3). Но каждый такой путь комбинируется с начальным участком от (0,0) до (2n-j-l, —3). Отсюда следует, что число путей длины 2п, пересекающих уровень —1 ровно один раз, равно числу путей из начала координат в точку (2п+1, —3), т. е. 22n+1 p2n+f^ Это доказывает утверж- дение для г — 1. Утверждение для произвольного г доказывается теперь по ин- дукции, причем рассуждение второй части доказательства исполь- зуется без изменения. (Доказательство проведено для частного слу- чая г—1 только по той причине, что в общем случае потребуются громоздкие обозначения.)
5 104 Гл, III. Флуктуации при бросании монеты; случайные блуждания Неожиданным следствием теоремы является то, что вероятность ! L,n перемен знака в п испытаниях убывает с ростом г: • • • (5.3) Это означает, что независимо от числа бросаний событие, состоящее в том, что лидерство ни разу не переменится, более вероятно, чем любое заранее фиксированное число перемен. Примеры, а) Вероятности хг для ровно г перемен знака в 99 испытаниях имеют следующие значения: г хг г хг 0 0,1592 7 0,0517 1 0,1529 8 0,0375 2 0,1412 9 0,0260 3 0,1252 10 0,0174 4 0,1066 11 0,0111 5 0,0873 12 0,0068 6 0,0686 13 0,0040 б) Вероятность того, что в 10 000 испытаниях не будет ни одной перемены знака, приблизительно равна 0,0160. Вероятности хг для ровно г перемен убывают очень медленно; при г=10, 20, 30 соответствующие значения хг равны 0,0156, 0,0146, 0,0130. Вероят- ность того, что в 10 000 испытаниях произойдет не более 10 смен лидерства, приблизительно равна 0,174; иначе говоря, почти 'в каждой шестой такой серии испытаний будет не более 10 перемен лидерства. ► Приятным свойством равенства (5.1) является то, что оно дает возмож- ность применить нормальное приближение, рассмотренное в § 2. Предполо- жим, что п велико и х—фиксированное положительное число. Вероятность того, что до момента времени п произойдет менее х Уп перемен знака, прак- тически совпадает с 2Р {Sn < 2х У п}, а последняя вероятность, согласно (2.7), стремится к 9? (2х) —1/2 при п—> оо. Таким образом, мы имеем сле- дующую теорему. Теорема 2. (Нормальное приближение.) Вероятность того, что до мо- мента времени п произойдет менее хУп перемен знака, стремится к 2$Jt (2х) — 1 при п —> оо. Отсюда следует, что медиана числа перемен знака примерно равна 0,337}/* п; это означает, что при достаточно больших п вероятности того, что число перемен знака будет меньше 0,337 У п или больше него, прибли- зительно равны. С вероятностью 1/10 произойдет менее 0,0628 Уп перемен знака и т. д. х) х) Такое приближение дает 1/10 для вероятности не более 6 уравниваний в 10 000 испытаниях, Это заниженная опенка; истинное значение составляет около 0,112-
§ 6. Результат эксперимента 105 § 6. РЕЗУЛЬТАТ ЭКСПЕРИМЕНТА На рис. 4 приведен результат машинного эксперимента — моде- лирования на ЭВМ 10 000 бросаний монеты; эти же данные содер- жатся в таблице примера гл. I, 6, в). Верхняя часть графика содер- жит результаты первых 550 испытаний; следующие две части изобра- жают полную запись результатов 10000 испытаний, причем масштаб в горизонтальном направлении здесь изменен в отношении 1 : 10. Масштаб в вертикальном направлении одинаков для всех графиков. Когда большинство людей смотрят на график, их поражают длины интервалов между последовательными пересечениями оси. Фактически же график изображает довольно умеренный случай — был выбран самый умеренный из трех имеющихся графиков. Более поразительный пример получается, если на этот же самый график посмотреть в обратном направлении, т. е. изменить на противопо- ложный порядок, в котором в действительности производились эти 10 000 испытаний (см. § 8). Теоретически серия, изображенная на графике, и обратная серия, получаемая в обратном направлении, одинаково законны в качестве представителей идеального случайно- го блуждания. Обратное случайное блуждание имеет следующие характеристики. Выходя из начала координат, путь находится на отрицательной стороне первые 7804 шага следующие 2 шага следующие 30 шагов следующие 48 шагов следующие 2046 шагов положительной стороне следующие 8 шагов следующие 54 шага следующие 2 шага следующие 6 шагов Всего 9930 шагов Доля времени'. 0,993 Всего 70 шагов Доля времени: 0,007 Это выглядит абсурдно, однако вероятность того, что при 10 000 бросаниях идеальной монеты одна из сторон будет лидировать на протяжении более чем 9930 испытаний, а вторая менее чем 70 пре- восходит 1/10. Иначе говоря, в среднем результаты одной из десяти последовательностей испытаний будут выглядеть более абсурдно, чем только что описанные. Для сравнения заметим, что вероятность равновесия, лучшего, чем на графике, равна всего лишь 0,072. График, приведенный на рис. 4, имеет 78 перемен знака и 64 других возвращений в начало. Обратная серия имеет 8 перемен знака и 6 других возвращений в начало. Опрос мнения специалистов обнаруживает, что даже опытные статистики ожидают значительно больше чем 78 перемен знака в 10 000 испытаний, и никто не считает всерьез возможным только 8 перемен знака. На самом деле вероят- ность не более 8 перемен знака превышает 0а14а тогда как вероят-
100 200 300 40а 500 Рис. 4. Результаты 10 000 бросаний идеальной монеты (описанные в § 6). 06 Гл. III. Флуктуации при бросании монеты*, случайные блуждания
§ 7. Максимумы и первые достижения 107 ность более 78 перемен знака приблизительно равна 0,12. Что каса- ется числа перемен знака в этих двух сериях, то они равноправны, и теоретически ни одно из них не должно вызывать удивления. Если они кажутся неожиданными, то причиной тому наша достой- ная осуждения интуиция и наши сомнительные ссылки на таинст- венный «закон средних». § 7. МАКСИМУМЫ И ПЕРВЫЕ ДОСТИЖЕНИЯ Большинство наших результатов выводится из основной леммы 1 § 3, которая, в свою очередь, является простым следствием прин- ципа отражения. Сосредоточим теперь наше внимание на других интересных следствиях этого принципа. Вместо путей, проходящих выше оси /, рассмотрим пути, кото- рые лежат ниже прямой х=г, т. е. пути, удовлетворяющие условию so < Г, St<r, S„<r. (7.1) В этом случае мы говорим, что максимум пути < г. (Максимум неотрицателен, потому что So = O.) Пусть Д = (п, k)—точка с ор- динатой Путь из точки 0 в точку А касается прямой х = г или пересекает ее, если нарушается условие (7.1). Согласно прин- ципу отражения, число таких путей равно числу путей из начала координат в точку Л' = (п, 2г—k), которая является отражением точки А относительно прямой х = г. Это доказывает следующую лемму. Лемма 1. Пусть k^r. Вероятность того, что путь длины п ведет в точку А = (п, k) и имеет максимум ^г, равна рп 2r~k==l = Р {S„ = 2г—&}. Вероятность того, что максимум равен г, равна разности Pn.2r-k—Pn,2r+2-k- Суммируя по всем получаем вероят- ность того, что произвольный путь длины п имеет максимум, в точности равный г. После сокращений сумма приводится к виду Рп, г + Рп, г+1- Если п и г имеют одинаковую четность, то рп* r+i = 0, в противном случае рПуГ — 0. Таким образом, справедлива сле- дующая теорема. Теорема 1. Вероятность того, что максимум пути длины п равен г^О, совпадает с положительным членом пары рп%Г и Рп, r+i- Для г = 0 и четных моментов времени это утверждение сво- дится к равенству Р^О, S2<0, S2„<0} = M2„, (7.2) эквивалентному соотношению (3.4), которое представляет собой один из вариантов основной леммы. Следовательно, теорема 1 обоб- щает эту лемму.
108 Гл. III. Флуктуации при бросании монеты; случайные блуждания Введем теперь понятие, играющее важную роль в общей теории случайных процессов. Момент времени п называется моментом пер- вого достижения точки Л>0, если S^r, Sn_i<r, S„ = r. (7.3) В настоящем контексте было бы предпочтительнее говорить о пер- вом попадании, однако термин «первое достижение», берущий нача- ло из физической литературы х), более употребителен; кроме того, термин «попадание» не применим к непрерывным процессам. Очевидно, путь, удовлетворяющий (7.3), должен проходить через точку (п—1, г—1), и его максимум до момента п—1 должен быть равен г — 1. Мы видели, что вероятность такого события равна Pn-i.r-!—Pn-i, r+n и, таким образом, справедлива следую- щая теорема. Теорема 2. Вероятность фГ1 п того, что первое достижение t произошло в момент времени п, равна Фг, п = 0/2) [Рп-i, г-1 Рп-1. г+1]* (7*4) Простые вычисления показывают, что срг == —( П (7.5) n\(n+r)/2j v 7 (как всегда, биномиальный коэффициент полагается равным нулю, если (п+г)/2 не является целым). По поводу другого вывода форму- лы см. п. б § 8. Распределение (7.5) наиболее интересно, когда г велико. Для того чтобы получить вероятность того, что первое достижение г произойдет до момента времени V, нужно просуммировать <рГп п по всем n^N. Из нормального приближения (2.7) следует, что только те члены дащт значимый вклад в сумму, для которых г* 2!п не слишком велико и не слишком близко к 0, Для таких членов оценки из гл. VII, 2 дают приближение <рг, „ ~ К2/л (r//^) e-r’/(2n). (7.6) При суммировании нужно иметь в виду, что п должно иметь ту же четность, что и г. Сумма является интегральной суммой Римана для интеграла в (7.7), ,и мы приходим к следующему утверждению. Теорема 3. (Предельная теорема для первых достижений.) Для фиксирован* ного t вероятность того, что первое достижение г произойдет до момента времени tr2, при стремится к 2). г) В оригинале first passage; в литературе по теории вероятностей этому обычно соответствует термин «первое достижение», в физической литературе — термин «первое прохождение». В дальнейшем будут использоваться оба термина (в зависимости от контекста).— Прим, перев. 2) Формула (7.7)*определяет так называемое положительное устойчивое рас- пределение с показателем 1/2. По поводу обобщений теоремы 3 см. задачу 14 гл. XIV, 9,
§7. Максимумы и первые достижения 109 /2/л J e-s2/i ds=2[l-SR(l/K/)], (7.7) 1/Г7 еде St—нормальное распределение, определенное в гл. VII, 1, Отсюда следует, что, грубо говоря, время ожидания первого достижения г возрастает как квадрат г: вероятность того, что первое достижение произойдет после момента времени (9/4)г* 2, близка к 1/2. Распределение времен первого достижения непосредственно при- водит к распределению момента времени, когда частица в r-й раз возвращается в начало. Теорема 4. Вероятность того, что r-е возвращение в начало произойдет в момент времени п, равна величине cpn из (7.5). Это означает, что r-е возвращение в момент времени п имеет та- кую же вероятность, как первое достижение г в момент времени п—г. Доказательство х). Рассмотрим путь из начала координат в точ- ку (п, 0), все звенья которого лежат ниже оси и ровно г—1 внутрен- них вершин находятся на оси. Для простоты будем называть такие пути характерными 2). (На рис. 5 изображен такой путь с п^= 20 и г=5.) Характерный путь состоит из г участков, крайние точки которых лежат на оси, и для каждого характерного пути мы можем Рис. 5. Первые достижения и возвращения в начало. построить 2Г различных путей, приписывая вершинам каждого' отдельного участка определенный знак (т. е. отражая участки отно- сительно оси). Действуя так, мы получим все пути, заканчивающие- ся г-м возвращением, и, следовательно, имеется ровно в 2Г раз больше путей, заканчивающихся r-м возвращением в момент вре- мени п, чем характерных путей. Поэтому теорема может быть пере- формулирована следующим образом: имеется столько характерных х) По поводу доказательства методом производящих функций см. формулу (3.17) гд. XI. 2) В оригинале — representative,— Прим, перев»
ПО Гл. III. Флуктуации при бросании монеты; случайные блуждания путей длины п, сколько существует путей длины п—г, оканчиваю- щихся первым достижением г. Это имеет место потому, что если в характерном пути вычеркнуть г звеньев, у которых левые крайние точки лежат на оси, то получится путь длины п—г, заканчивающий- ся первым достижением г. Эта процедура обратима: для того чтобы получить исходный характерный путь, нужно, исходя из начала координат, вставить г звеньев с отрицательным наклоном и г—1 вершин, которые соответствуют первым достижениям 1, 2, . . . ... ,г—1 (см. рис. 5). ► Отсюда следует, что предельную теорему для первого достиже- ния можно применить для нахождения вероятности г-го возвраще- ния при г->оо: вероятность того, что r-е возвращение в начало прои- зойдет до момента времени tr2, стремится к величине (7.7). Этот результат обнаруживает другое неожиданное свойство флуктуаций при случайных блужданиях. Случайное блуждание в известном смысле начинается сначала каждый раз, когда частица возвращается в начало. Время до r-го возвращения есть, таким образом, сумма времен ожидания, которые можно интерпретировать как «результаты измерения одной и той же физической величины в одинаковых условиях». Считается, что среднее из г таких наблю- дений должно сходиться к «истинному значению». Однако в данном случае сумма является величиной такого же порядка, как г2, и по- этому среднее увеличивается примерно пропорционально г. Более глубокий анализ показывает, что одно из г времен ожидания явля- ется величиной того же порядка, что и вся сумма, а именно г2. На практике такое явление часто приписывается «ошибке эксперимен- та» или отбрасывается как «постороннее». Трудно заметить то, что не ожидаешь увидеть. § 8. ДВОЙСТВЕННОСТЬ. ПОЛОЖЕНИЕ МАКСИМУМА Каждому пути соответствует конечная последовательность плюс единиц и минус единиц; рассматривая их в обратном порядке, полу- чаем новый путь. Геометрически новый путь получается поворотом данного пути на 180 градусов вокруг его правой крайней точки и выбором последней в качестве начала новой системы координат. Каждому множеству путей таким образом ставится в соответствие новое множество такой же мощности. Если шаги исходного случай- ного блуждания суть Xi, Х2, . . ., Хп, то шаги нового случайного блуждания определяются следующим образом: Х1 = Х„, .... Х^ = Хр (8.1) Вершины нового случайного блуждания определяются частными суммами: s;=x;+...+xbs„-s„_ft (8.2)
§ 8. Двойственность. Положение максимума 111 (откуда So =0 и S„=Sn). Мы будем называть такое случайное блуж- дание двойственным. Каждому событию, определенному для ис- ходного случайного блуждания, соответствует событие равной веро- ятности в двойственном случайном блуждании, и, таким образом, почти каждое вероятностное соотношение имеет двойственное. Этот простой метод получения новых соотношений является более по- лезным, чем это может показаться на первый взгляд. В полной мере его мощь будет показана только в томе 2 в связи с общими случай- ными блужданиями и теорией очередей, но даже в данном контексте мы сможем без особых усилий получить некоторые новые интерес- ные результаты. Для того чтобы показать это, рассмотрим несколько пар двойст- венных событий, выделяя в каждом случае заслуживающий внима- ния аспект. В следующих примерах п считается заданным и для краткости крайняя правая точка пути (n, Sn) будет называться ко- нечной точкой. У кобыз начать с известных событий в двойственном случайном блуждании. а) Времена первого достижения. Из (8.2) следует, что события, определенные соответственно посредством S/>0, / = 1, 2, .... п. (8.3) и Sn>Sy, / = 0, 1, .... п— 1, (8.4) двойственны по отношению друг к другу. Второе из них означает, что конечная точка не достигалась до момента времени п. Из (3.2) мы знаем, что первое событие имеет вероятность (1/2) m2v, когда /2 = 2v > 0 четное; для n = 2v+ 1 вероятность та же самая, потому что из S2V > 0 следует S2V+1 > 0. Таким образом, вероятность того, что первое достижение уровня конечной точки произойдет в момент времени п, равна (1/2) u2v, где v = (l/2)n или v = (1/2) (м—1). (Это, очевидно, справедливо также для п=1, но неверно для п = 0.) Принцип двойственности привел нас к инте- ресному результату, который нелегко получить непосредственно. б) Продолжение. В предыдущем утверждении конечная точка заранее не фиксировалась. Задание точки г в качестве точки первого достижения означает добавление к (8.4) условия Sn—г. Двойствен- ное событие состоит из путей, идущих из начала координат в точку (п. г), у которых все промежуточные вершины расположены выше оси. Число таких путей находится непосредственно из леммы об отражении [с А — (1, 1) и В^= (п, г)], и мы получаем, таким образом, новое доказательство (7.4). в) Максимум в конечной точке. Если в (8.3) и (8.4) строгие нера- венства заменить нестрогими, то получится новая пара двойствен- ных событий. Второе событие осуществляется каждый раз, когда S„ максимально, даже если этот максимум уже достигался в неко-
112 Гл, IIL Флуктуации при бросании монеты; случайные блуждания торый предыдущий момент времени х). Обращаясь к (3.4), видим, что вероятность этого события равна u2Vi где v—(1/2)п или v — ==(1/2)(п+1). Заслуживает внимания, что эти вероятности равны удвоенным вероятностям, найденным в п. а. г) Событие, заключающееся в том, что было k возвращений в на- чало, двойственно событию, заключающемуся в том, что до момента времени п было k попаданий в конечную точку. Сходное утвержде- ние использовалось при изучении перемен знака. (Относительно вероятностей см. § 5, а также задачи 9 и 10). д) Закон арксинуса для первого попадания в конечную точку. Рассмотрим случайно выбранный путь длины n = 2v. В п. а мы видели, что с вероятностью (1/2) u2v значение S2v положительно и таково, что ни один из членов последовательности So, Sf, ..., S2v_t не равен S2v. Это же справедливо для отрицательных S2V, и, сле- довательно, вероятность того, что значение S2V не будет достигнуто до момента времени 2v, равна u2v; эта же величина определяет вероятность события S2v::=0, в котором конечное значение дости- гается уже в момент времени 0. Рассмотрим теперь более общее событие, состоящее в том, что первое попадание в конечную точку имеет место в момент времени 2k (иначе говоря, мы требуем, чтобы S2fe = S2v, но Sy=H=S2v при / < 2k). Это событие двойственно событию, состоящему в том, что последнее попадание в начало имело место в момент времени 2й, а в § 4 мы видели, что такие попадания подчиняются дискретному распределению арксинуса. Мы, таким образом, получили неожиданный результат: с вероятно- стью a2k, 2v = ti2ku2v^2k первое попадание в конечную точку S2V имело место в момент времени 2v—2k (£ = 0, 1, ..., v). Отсюда следует, в частности, что моменты времени 2k и 2v—2k равновероятны. Кроме того, очень ранние и очень поздние первые попадания гораздо более вероятны, чем первые попадания в другие моменты времени. е) Закон арксинуса для положения максимума. В качестве по- следнего примера применения принципа двойственности мы пока- жем, что результаты, полученные в п. а и в, позволяют непосредст- венно определить распределение вероятностей для моментов, в ко- торые последовательность So, Sb . . ., Sn достигает максимального значения. К сожалению, это максимальное значение может дости- гаться неоднократно, и, таким образом, мы должны делать различие между первым и последним максимумом. Результаты, впрочем, ана- логичны. Пусть для простоты п четно: n^=2v. Первый максимум имеет место в момент времени k, если So < $k, • • • i < Sk, (8.5a) S,+i<S„ ..., S2v<S,. (8.56) *) По терминологии гл. 12 тома 2 мы рассматриваем слабые лестничные точки в отличие от строгих лестничных точек, которые определяются усло- виями п, а.
§9, Теорема о равнораспределенности ИЗ Запишем k в виде & = 2р или fe = 2p +1. Согласно п. а, вероят- ность события (8.5а) равна (1/2) rz2p, исключая случай, когда р = 0. Событие (8.56) зависит только от участка пути после момента времени k, и его вероятность, очевидно, равна вероятности того, что у пути длины 2v—k все вершины лежат ниже оси t или на ней. В п. в было показано, что эта вероятность равна «2v_2p- Таким образом, если 0 < & < 2v, то вероятность того, что в по- следовательности So, ..., S2V первый максимум имеет место в момент времени fe = 2p или k = 2р +1, равна (1/2) i/2p w2v-2p. При k==0 и k — 2v эти вероятности равны u2v и (1/2) u2v соот- ветственно. (Для последнего максимума вероятности для моментов времени О и 2v меняются местами; остальные вероятности остаются неиз- менными при условии, что k записано в виде k~2p или k—2р—1.) Мы видим, что при подходящем соединении четных и нечетных индексов положение максимума описывается дискретным распре- делением арксинуса. При игре с бросанием монеты вопреки интуи- ции гораздо вероятнее, что максимальный суммарный выигрыш бу- дет в самом начале (или в самом конце) игры, чем в ее середине. § 9. ТЕОРЕМА О РАВНОРАСПРЕДЕЛЕННОСТИ Мы закончим эту главу доказательством теоремы, упоминавшей- ся в примере 1, б) в связи с ранговым критерием Гальтона. Она поучительна тем, что показывает, как, казалось бы, безобидные из- менения в условиях могут изменить характер результата. В § 4 было показано, что, число звеньев, лежащих выше оси t, описывается дискретным распределением арксинуса. Мы рассмот- рим теперь ту же задачу, но сосредоточим наше внимание на путях, ведущих из начала координат в точку на оси t. Результат является неожиданным сам по себе, а также потому, что в корне отличается от закона арксинуса. Теорема, Число путей длины 2п, таких, что S2n = 0 и ровно 2k звеньев лежат над осью t, не зависит от k и равно 22пи2п/(п-$~ 1) = ^=2^72п+2. (Здесь ЬО, 1, п.) Доказательство. Рассмотрим отдельно случаи k = Q и k — n. Число путей в (2п, 0), все звенья которых лежат выше оси равно числу путей из (1, 1) в (2п, 0), которые не касаются пря- мой, проходящей непосредственно под осью t. В силу принципа отражения это число равно f2n —1\ f2n —1\ 1 \ п J \n-f-l / п+1\п/ (9’1) Это доказывает утверждение при &=п и в силу симметрии также при
114 Гл. III. Флуктуации при бросании монеты; случайные блуждания При 1</г<п—1 воспользуемся индукцией. Теорему легко про* верить для случая п=Л', предположим, что она справедлива для всех путей, длина которых меньше 2п. Обозначим через 2г момент первого возвращения. Имеются две возможности. Если участок пу- ти до момента времени 2г расположен в положительной полуплос- кости, то 1<г<£ и второй участок имеет ровно 2k—2г звеньев над осью. По предположению индукции путь, удовлетворяющий этим условиям, может быть выбран 22п-2г 22"-2 22Г f 2Г ’ п_r_|_ 1 2Г = г __г_|_ 1)’ ^2Г-2^2п-2Г -2) различными способами. С другой стороны, если участок до первого возвращения в начало находится в отрицательной полуплоскости, то конечный участок длины 2п—2г содержит ровно 2k положитель- ных звеньев и, следовательно, в этом случае п—f^k. Для фиксиро- ванного г число путей, удовлетворяющих этим условиям, также рав- но (9.2). Таким образом, число путей обоих типов получается сумми- рованием (9.2) по и l^r^n—k соответственно. Во второй сумме заменим индекс суммирования г на р—п+1—г. Тогда р ме- няется от /г+1 до п и слагаемые имеют вид (9.2) с заменой г на р. Отсюда следует, что число путей, у которых k звеньев лежат в по- ложительной полуплоскости, получается суммированием (9.2) по l^r^n. Поскольку k не входит в (9.2), сумма не зависит от k, что и утверждалось. Поскольку общее число путей равно 22л и2п> отсюда находим (делением на п+1) число путей каждой категории. (Отно- сительно непосредственного вычисления см. задачу 13.) Имеет место аналогичная теорема для положения максимума (см. задачу 14). § 10. ЗАДАЧИ 1. а) Если а > 0 и b > 0, то число путей (s±, s2t ..., sn), таких, что Si >—b......s„_i >— b, sn = a, равно Nn< а — Nn, a+2b. б) Если b > а > 0, то имеется Nn,a — Nn,2b-a путей, удовлетворяющих условиям Si < b, ..., sn_x < b, sn=a. 2. Пусть я > с > 0 и b > 0. Число путей, которые касаются прямой х = а и затем ведут в точку (п, с), не касаясь прямой х — — Ь, равно Nn, 2а~с— Nn,2a+2b + c’ (Заметим, что сюда относятся пути, касающиеся пря- мой х — —Ь, 'до того как они коснутся прямой х = а.) 3. Повторные отражения. Пусть а и b положительны и —b < с < а. Число путей, ведущих в точку (и, с) и не имеющих общих точек с прямыми х — —b и х = а, равно сумме 2 №п, 2k (a + b) + c Nп, 2k (a + b) + 2a — с)> эта сумма берется по всем целым k от —оо до оо, но лишь конечное число слагаемых отлично от нуля. Указание. Применить и развить метод предыдущей задачи. Замечание. Эта задача связана с так называемой задачей о разорении, которая возникает при исследовании азартной игры, когда два игрока имеют начальные >
10. Задачи 115 капиталы а и Ь, так что игра заканчивается, если суммарный выигрыш достигает значения а или — Ь. По поводу связи со статистическими критериями см. пример 1,в). (Метод повторного отражения будет вновь применен в задаче 17 гл. XIV, 9 и в связи с теорией диффузии в томе 2, гл. X, 5). 4. Используя лемму 1 § 3, показать (без вычислений), что W0W2n+ ^2^272-2+ • » • +^2n«0= If 5. Показать, что «2П=(-1)П(-^2) , /2В=(-1)П“1(^2). Вывести тождество предыдущей задачи так же, как (2.6) выводится из формулы (12.9) гл. II. 6. Доказать геометрически, что существует ровно столько же путей, которые заканчиваются в точке (2п+2, 0) и все внутренние вершины которых лежат строго выше оси, сколько существует путей, которые заканчиваются в точке (2/г, 0) и все вершины которых лежат выше оси или на ней. Таким образом, Р {Si 0, ,<«, §277 — 1^0, ^2п = = 2/2rt +2* Указание. См. рис. 1. 7. Доказать лемму 1 §3 геометрически, показав, что взаимно однозначное соот- ветствие между двумя классами путей устанавливается следующим построением.. Обозначим самую левую точку минимума заданного пути, ведущего в точку (2 п, 0), через M=(k, т). Отразим участок, ведущий из начала координат в точку М, относительно вертикальной прямой t=k и передвинем отраженный участок так, чтобы его начальная точка совпала с точкой (2/г, 0). Если М принять за на- чало координат, то в новой системе координат новый путь ведет из начала в точку (2/г, 2m) и все его вершины лежат выше оси или на ней. (Это построение принадле- жит Э. Нелсону.) 8. Доказать формулу (3.5) непосредственно, рассмотрев пути, не имеющие общих точек с прямой х=—1. 9. Вероятность того, что до момента времени 2п произошло ровно г возвраще- ний в начало, равна вероятности того, что возвращение имело место в момент времени 2п и ему предшествовало по меньшей мере г возвращений. Указание., Использовать лемму 1 § 3. 10. Продолжение. Обозначим через £Г12п вероятность того, что до мо- мента времени 2/г включительно произошло ровно г возвращений в начало, Используя предыдущую задачу, показать, что zrt 2n = pr, 2n+pr+i, 2„+ ..., где pri2n—вероятность того, что r-е возвращение произошло в момент вре- мени 2/г. Применив теорему 4 § 7, доказать, что __ 1 (2п—г\ Zr< in ~ 22n~r * п )’ 11. Другой вывод формулы для вероятности числа перемен знака. Показать, что п-1 ^Г, 2п — 1 = (1/2) У1 f%k [£/ —f, 2n—f — 2fe"V" 2n —i —2fe]t fe=l Применяя индукцию, предположим, что (5.1) имеет место для всех моментов времени, предшествующих 2п — 1. Показать, что это равенство сводится к п-1 ё/, — % 2 ^2&P2n-2fe, 2/, 1 а это вероятность того, что точка (2/г, 2г) будет достигнута после возвра- щения в начало. Рассмотрев первый шаг и применив теорему о баллотировке, показать, что (5,1) справедливо*
116 Гл. III. Флуктуации при бросании монеты; случайные блуждания 12. Вероятность того, что S2n=0 и наибольшее из Sj, S2n_i равно kt есть P{S2n=2&}— Р {S2ra = 2Zs-f-2}. Доказать это, используя отражение» 13. При доказательстве теоремы § 9 было показано, что п 2 О/к (Я—Г+ 1)]} «2Г-2«2И-2Г= П/(« + 1)] «2П- Г=1 Показать, что это соотношение эквивалентно (2.6). Указание. Разложить дробь. 14. Рассмотрим путь длиной 2п, такой, что S2n = 0. Расположим звенья в круговом порядке, отождествив 0 и 2п, так что первое и последнее звенья окажутся соседними. Применив циклическую перестановку, рассмотреть этот путь в новой системе координат с началом в точке (k, S^), Показать, что такая перестановка сохраняет максимум, но сдвигает его не k шагов. Доказать, что когда применены все 2/г циклических перестановок, число случаев, в которых максимум достигается в момент времени г, не за- висит от г. Рассмотрим теперь случайный выбор пути, такого, что S2n = 0, и найдем место максимума, если последний является единственным; если существует несколько точек максимума, то выберем одну из них случайным образом. В результате получим число между 0 и 2п—1. Показать, что всевозможные значения равновероятны.
ГЛАВА IV*) КОМБИНАЦИИ СОБЫТИИ В этой главе мы будем иметь дело с событиями, которые опреде- ляются посредством некоторых других событий At, А$, . . А^ Например, при игре в бридж событие А «по крайней мере один игрок имеет полную масть» является объединением четырех событий Ак «игрок с номером k имеет полную масть» (й==1, 2, 3, 4). Из событий Ak одно, два или более могут осуществиться одновременно, и за счет этого частичного наложения вероятность события А не равна сумме четырех вероятностей Р{ЛЙ). Мы покажем, как для заданно- го множества событий At, . . ., AN вычислить вероятности того, что 0, 1, 2, 3, ... из них осуществились х). § 1. ОБЪЕДИНЕНИЕ СОБЫТИЙ Если At и А г — два события, то AlMs обозначает событие, состоящее в том, что осуществились либо At, либо Л г, либо они оба. Из гл. I мы знаем (формула (7.4)), что Р{Л }=Р{Л 1}+Р{Л i)-Р{Л1Л 2}. (1.1) Мы хотим обобщить эту формулу на случай 2V событий At, As, . . . . . ., Лдг, т. е. вычислить вероятность того, что осуществится хотя бы одно из событий Ак. Символически это событие записывается в виде Л = Лхи Л2и ... U Лдг. Для нашей цели недостаточно знать вероятности отдельных событий Лй, нам должна быть дана полная информация о всевозможных пе- ресечениях. Это означает, что для каждой пары (i, /), каждой тройки (i, /, k) и т. д. мы должны знать вероятности одновременного осу- ществления Лг и Aj, A t, Aj и Ак и т. д. Для удобства будем обозна- чать эти вероятности буквой р с соответствующими индексами. Та- ким образом, рг?=Р{Лг}, рг^Р{Л4ЛД, р/А=Р{ЛгЛ;Лл}...............1 (1.2) ♦) Материал этой главы непосредственно использоваться в дальнейшем не будет. Очень важна только первая теорема. По поводу дополнительной информации см. Frechet М., Les probabilites associees a un systeme d’evenements compatibles et dependants, Actualites scienti- fiques et industrielles, Яг 859 (1940); №942 (1943), Paris,
118 Гл. IV. Комбинации событий Порядок индексов несуществен, однако в целях однозначности мы всегда будем писать индексы в порядке возрастаниям так, мы пишем р317> и, а не р71 3, п. Два индекса не совпадают. Для суммы всех per индексами будем использовать обозначение Sr, т. е. положим Si~^Pi’ ^з — ^Pijky ••• • 0’3) Здесь i < j < k < ... Af, так что в суммах каждая комби- нация встречается один и только один раз; следовательно, Sr со- [N\ держит I j слагаемых. Последняя сумма SN сводится к единст- венному Pi, 2,3, которое является вероятностью одновремен- ного осуществления всех N событий. При ТУ = 2 имеется только две суммы и S2 и (1.1) можно записать в виде P{X}-Si-S2. (1.4) Обобщение на произвольное число N событий дает следующая тео- рема. Теорема. Вероятность Рг осуществления хотя бы одного из со- бытий Ль Л 2, . . ., An равна — + --• • • ± SN. (1.5) Доказательство. Докажем (1.5) так называемым методом вклю- чения и исключения (см. задачу 26). Для того чтобы вычислить Рь мы должны сложить вероятности всех элементарных событий, которые содержатся хотя бы в одном из Aif но каждое элементарное событие должно быть взято только один раз. Действуя последова- тельно, мы сначала возьмем все элементарные события, которые со- держатся только в одном Аь затем те, которые содержатся ровно в двух из At и т. д., и наконец элементарные события (если они су- ществуют), содержащиеся во всех Л^. Пусть Е — любое элементар- ное событие, содержащееся ровно в п из N событий At. Не ограни- чивая общности, мы можем занумеровать события так, что Е содер- жится в Лп Л2, . . ., Лп, но не содержится в Л„+1, Лп+2, . . ., AN. Тогда Р{£} является слагаемым в тех рь pih pijh, . . ., у которых индексы изменяются от 1 до п. Следовательно, Р{£} входит п раз / п\ в Si, I g ) раз — в S2 и т. д. В итоге, выразив правую часть (1.5) через вероятности элементарных событий, мы убедимся, что Р{£} входит в Pi с коэффициентом /п\ /п\ ( п\ n-{2j + \3j~+ ••• Цп/ (L6) Остается показать, что это число равно 1. Это непосредственно сле- дует из сравнения (1.6) с биномиальным разложением (1—1)л (см. формулу (8.7) гл. II). Последнее начинается с 1, и слагаемые из
§1. Объединение событий 119 (1.6) содержатся в нем с противоположными знаками, следователь- но, для любого п^1 выражение (1.6) равно 1. ► Примеры, а) Пусть при игре в бридЯс Д. есть событие «игрок /52\~1 с номером i имеет полную масть». Тогда pz = 4( 13) ; событие, состоящее в том, что два игрока i и j имеют полную масть, осуществляется в 4-3 случаях и имеет вероятность р,ч=* /52\~1/39\~1 7 12(13/ (13/ ’ аналогично находим ол/52\-1/39V1/26'V1 ^13/ \13/ ’ Наконец, piy 2i 4 = Pi, 2t 3, так как если три игрока имеют полную масть, то ее имеет и четвертый. Вероятность того, что хотя бы один игрок имеет полную масть, равна поэтому ^1 = 4^—6pli2 + + 4р1|2,з—Pi, 2, з,4- Используя формулу Стирлинга, находим, что приблизительно Р± = (1/4) 10~10. В этом частном случае Р± очень близко к сумме вероятностей Д;, но это скорее исключение, чем правило. б) Пары (совпадения). Следующая задача, известная в различ- ных вариантах и приводящая к неожиданному ответу, была пред- ложена Монтмором (1708). Она была обобщена Лапласом и многими другими авторами. Две одинаковые случайным образом перетасованные колоды, содержащие по N различных карт каждая, сравниваются друг с другом. Если карта находится на одном и том же месте в обеих колодах, то мы говорим, что имеет место пара (совпадение). Совпа- дения могут быть на любом из N мест и на нескольких местах одно- временно. Этот эксперимент может быть описан и в шуточной форме. Например, две колоды карт можно заменить множеством писем и предназначенных для них конвертов, и своенравный секретарь запе- чатывает письма в конверты случайным образом. Или можно пред- ставить себе, что шляпы в гардеробе перепутаны и распределяются между посетителями случайным образом. Совпадение имеет место, если посетитель получает свою собственную шляпу. Поучительно попытаться угадать, как вероятность совпадения зависит от N: как вероятность получения своей шляпы хотя бы одним из 8 гостей соотносится с соответствующей вероятностью в собрании из 10 000 человек? Кажется удивительным, что эта вероятность практически не зависит от N и близка к 2/3. (Более серьезные приложения см. в задачах 10 и 11.) Вероятности наличия ровно 0, 1, 2, 3, ... совпадений будут вычислены в § 4, а здесь мы найдем только вероятность Pt хотя бы одного совпадения. Для удобства занумеруем карты числами 1, 2, ..., N в том порядке, в котором они расположены в одной из колод, и предположим, что каждая перестановка карт во вто-
120 Гл. IV. Комбинации событий рой колоде имеет вероятность 1/NI. Пусть событие Ak означает, что имеет место совпадение на k-м месте. Это означает, что карта с номером k находится на &-м месте, а оставшиеся N—1 карт могут быть расположены в произвольном порядке. Очевидно, pk = (N—= 1/N. Аналогично для любой комбинации f, / имеем p.. = (N—2)!/^! = l/f/V (N — 1)] и т. д. Сумма Sr содержит слагаемых, каждое из которых равно (N—r)\/N\. Следовательно, 5г = 1/г!, и в силу (1.5) искомая вероятность равна Л = 1 —1/21 + 1/3! — + ... ± 1/Л+ (1.7) Заметим, что 1—Р± представляет собой Л/+1 первых членов разложения = 1 — 1 + 1/2! —1/3! + 1/4!-1- • • •, (18) и, следовательно, приблизительно 7^- 1—2-1 = 0,63212... . (1.9) Точность приближения видна из следующей таблицы истинных значений Рг: N == 3 4 5 6 7 = 0,66667 0,62500 0,63333 0,63196 0,63214. ► § 2. ПРИЛОЖЕНИЕ К КЛАССИЧЕСКОЙ ЗАДАЧЕ О РАЗМЕЩЕНИИ Вернемся теперь к задаче о случайном размещении г шаров по п ящикам, предполагая, что каждое размещение имеет вероятность п~г, Найдем вероятность рт(г,п) того, что ровно т ящиков остают- ся пустыми *). Пусть событие Ah заключается в том, что ящик с номером k пуст (Л—1, 2, . . ., п). При выполнении этого события все г шаров размещаются в остальных п—1 ящиках, и это может быть сделано (п—1)г различными способами. Аналогично существует (п—2)г размещений, при которых два фиксированных ящика остаются пус- тыми и т. д. Следовательно, = pz,. = (l-2/n)', p;7ft=(l-3/nr, (2.1) и поэтому для любого Вероятность того, что хотя бы один ящик пуст, задается соот- ношением (1.5), и поэтому вероятность того, что все ящики за- *) Эта вероятность была получена совершенно другим способом в задаче 8 гл, II, 11, Сравните также с заключительным замечанием § 3f
§ 2. Приложение к классической задаче о размещении 121 пяты, равна р0 (г, ft) = 1 —+ ^2----F п / \ = Е <—!)’(") (1—£)' (2-3) v= 0 \ / \ ✓ Рассмотрим теперь размещение, при котором ровно т ящиков оста- ются пустыми. Эти т ящиков могут быть выбраны способами. Тогда г шаров распределяются между остальными п—tn ящиками так, что каждый из них занят; число таких распределений равно (и—т)гро(г, п—т). Разделив на пг, найдем вероятность того, что ровно т ящиков остаются пустыми: / ч /ft \ /1 т у . ч Pm(r, «) = (ч/пДр0(г,п—т) = п-т 4 ' v=o \ / V / Мы уже использовали модель случайного выбора г цифр для иллюстрации случайного размещения г предметов по п=10 ящикам. Пустым ящикам соответствуют в этом случае отсутствующие циф- ры: если т ящиков пусты, то в данной последовательности встреча- ются 10—т различных цифр. Численная иллюстрация приводится в табл. 1. Таблица 1 Вероятности рт (г, 10), полученные по формуле (2.4) т г= 10 г =18 । т г=10 г=18 0 0,000 363 0,134 673 5 0,128 596 0,000 876 1 0,016 330 0,385 289 6 0,017 189 0,000 014 2 0,136 080 0,342 987 7 0,000 672 0,000 000 3 0,355 622 0,119 425 В 8 0,000 005 0,000 000 4 0,345 144 0,016 736 9 0,000 000 0,000 000 рт(г, Ю)—вероятность того, что ровно т из цифр 0, 1, ...» 9 не появятся в последовательности из г случайных цифр. Ясно, что непосредственное вычисление по (2.4) возможно в слу- чае относительно малых п и г. С другой стороны, задача о размеще- нии представляет собой интерес, когда п велико. Каковы шансы, что при размещении 10 000 шаров по 1000 ящикам хотя бы один ящик останется пустым? Каковы шансы, что для группы из 2000 человек есть хотя бы один день в году, не являющийся чьим-либо днем рождения? К счастью, на подобные вопросы можно ответить с помощью замечательно простой приближенной формулы, погреш-
122 Гл. IV. Комбинации событий ность которой стремится к нулю при п->оо. Это приближение и приводящие к нему рассуждения типичны для многих предельных теорем теории вероятностей. Таким образом, наша цель заключается в нахождении предель- ного вида (2.4) при п->оо и г->оо. Соотношение между г и п в прин- ципе может быть произвольным, но если среднее число r/п шаров на ящик чрезмерно велико, то мы не можем ожидать наличия пустых ящиков; в этом случае р^(г, п) близка к единице и все рт(г, п) при т^1 малы. С другой стороны, если r/п стремится к нулю, то прак- тически все ящики должны быть пустыми, и в этом случае pm(h п)->0 для любого фиксированного т. Поэтому действительный инте- рес представляет только промежуточный случай. Мы начнем с оценки величины Sv в (2.2). Так как (п—v)v < (n)v < nv, имеем nv (1 —v/n)v+r < v!Sv < nv (1 —v/riy. (2-5) Из разложения (8.10) гл. II следует, что при 0 < t < 1 значение —log (1 — t) лежит между t и //(1 — f). Поэтому |ne-(v+r)/(«-v)}v < v| sv < {ne~r/n}v. Положим для краткости ne-r/п^ (2-6) (2-7) и предположим, что г и п возрастают таким образом, что К оста- ется внутри конечного интервала 0 < а < к < Ь. Для каждого фиксированного v отношение крайних членов в (2.6) стремится к единице, и поэтому 0<V/v!— Sv —>0. (2-8) Это соотношение очевидно справедливо, когда X 0, и, следователь- но, (2.8) остается справедливым и тогда, когда г и п возрастают таким образом, что % остается ограниченным. Но е~к-р<, (г, и) = 2 (- l)v {V/v!-Sv} v=0 (2-9) и из (2.8) следует, что правая часть стремится к нулю. Кроме того, множитель при ра(г, п—т) в (2.4) равен Sm, и поэтому для каждого фиксированного т имеем Рт (г’ п) — е~кХт/т\ —>0. (2.10) Тем самым доказана следующая теорема.
Таблица 2 Пуассоновское приближение (2.11) для вероятностей наличия ровно т пустых ящиков при случайном распределении г шаров по п = 1000 ящикам г X р (tn; X) т = 0 т= 1 /72 = 2 т = 3 /72=4 /72=5 т = 6 /72 = 7 /72 = 8 /72=9 /72 = 1 0 /72= 1 1 5000 6,74 0,0012 0,0080 0,0269 0,0604 0,1017 0,1371 0,1540 0,1482 0,1249 0,0935 0,0630 0,0386 5500 4,09 0,0167 0,0685 0,1400 0,1909 0,1951 0,1596 0,1088 0,0636 0,0325 0,0148 0,0060 0,0023 6000 2,48 0,0838 0,2077 0,2575 0,2128 0,1320 0,0655 0,0271 0,0096 0,0030 0,0008 0,0002 6500 1,50 0,2231 0,3347 0,2510 0,1255 0,0471 0,0141 0,0035 0,0008 0,0001 7000 0,91 0,4027 0,3661 0,1666 0,0506 0,0115 0,0021 0,0003 7500 0,55 0,5777 0,3163 0,0873 0,0162 0,0023 0,0003 8000 0,34 0,7126 0,2406 0,0414 0,0049 0,0004 8500 0,20 0,8187 0,1637 0,0164 0,0011 0,0001 9000 0,12 0,8869 0,1064 0,0064 0,0003 § 2. Приложение к классической задаче о размещении
124 Гл. IV, Комбинации событий Теорема1). Если п и г стремятся к бесконечности, так что <k'=ne~rltl остается ограниченным, то для каждого фиксирован* ного т выполняется соотношение (2.10). Аппроксимирующее выражение р(т\ ty=e~K№/ml (2.11) определяет так называемое распределение Пуассона, которое имеет большое значение и описывает разнообразные явления; оно будет изучаться в гл. VI. На практике можно использовать p(m; X) в качестве приближе- ния, когда п велико. Для небольших значений п необходима оценка погрешности, однако мы заниматься этим не будем. Примеры, а) В табл. 2 приведены приближенные значения веро- ятностей того, что т ящиков окажутся пустыми при общем числе ящиков, равном 1000, и числе шаров, меняющемся от 5000 до 9000. При г=5000 медиана числа пустых ящиков равна шести: наличие семи или более пустых ящиков имеет приблизительно такую же вероятность, как шести и менее. Даже в случае 9000 шаров в 1000 ящиках мы имеем около одного шанса из девяти найти пустой ящик. б) В статистике дней рождения (пример гл. II, 3, г)) п = 365, а г равно числу людей. При г = 1900 приблизительно Х = 2. Веро- ятности Р[т1 того, что в поселке с 1900 жителями т дней в году не являются днями рождения, приблизительно таковыл Pw = 0,135, Р[Х] = 0,271, РГ2] = 0,271, Р(3] = 0,180, р[4] = 0,090, Р(5] = 0,036, Р[в] = 0,012, Р[7] = 0,003. в) Когда nlogn + шг шаров размещаются в п ящиках и п ве- лико, вероятность того, что все ящики заняты, равна 1—► Вместо пустых ящиков можно рассмотреть ящики, содержащие ровно k шаров. Здесь с небольшими изменениями применимы рассуждения, использованные выше в частном случае &= 0. Как показал Мизес, вероятность того, что ровно т ящиков содержат по k шаров, также аппроксимируется распределением Пуассона (2.11), но в этом случае X определяется следующим образом: h~n(e~rlnlk\) (r!n)k. (2.12) § 3. ОСУЩЕСТВЛЕНИЕ т ИЗ N СОБЫТИЙ Теорема § 1 может быть усилена следующим образом. Теорема. Для любого целого т, такого, что 1 вероят- ность Р1т} того, что одновременно осуществляется ровно т из N х) Принадлежит (с другим доказательством) Мизесу (von Mises R., Uber Aufteilungs- und Besetzungswahrscheinlichkeiten, Revue de la Faculte des Sciences de I’Universite d’Istanbul, N. S., 4 (1939), 145—163),
§ 4. Приложение к задачам о совпадениях и об угадывании 125 событий Л-р ...» Лдг, равна ( т+ 1\ /т+2\ /N\ elrn]—sm—( )sm+i+( )Sm+z—F.•. ±( (3.1) Замечание. Согласно (1.5), вероятность Pw того, что не осу- ществилось ни одно из событий Лу, равна Аоз = 1-Л=1—Si + S8-S8± ••• (3.2) Это показывает, что (3.1) дает правильное значение также и для т=0, если мы положим S0=l. Доказательство. Будем рассуждать так же, как при доказатель- стве (1.5). Пусть Е— произвольное элементарное событие;, пред- положим, что оно содержится ровно в п из N событий Aj. Тогда Р {£} дает вклад в Рт лишь тогда, когда n=m. Для того чтобы узнать, каким образом Р {£} входит в правую часть (3.1), заметим, что Р {£} входит в суммы Si, S2(. . ., Sn, но не входит в суммы S„+i,. . ., SN. Отсюда следует, что Р {£} не дает вклада в правую часть (3.1), если п < т. Если п=т, то Р {Е } входит в одно и только в одно слагаемое суммы Sm. Для завершения доказательства теоре- мы остается показать, что при п > т вклады Р {Е} в члены правой части Sm, Sm+1.....Sn взаимно уничтожаются. Действительно, Р {Е} входит в Sh с коэффициентом (fy, равным числу наборов по k событий из п событий, содержащих Е. Таким образом, при п> т полный вклад Р{Е} в правую часть (3.1) равен (3.3) Если выразить биномиальные коэффициенты через факториалы, то легко видеть, что это выражение сводится к следующему: В скобках имеем биномиальное разложение для (1 — 1)п-и, так что (3.3) обращается в нуль, что и утверждалось. ► Читателю предлагается проверить, что подстановка выражения (2.2) в (3.1) непосредственно приводит к (2.4). § 4. ПРИЛОЖЕНИЕ К ЗАДАЧАМ О СОВПАДЕНИЯХ И К ЗАДАЧЕ ОБ УГАДЫВАНИИ В примере 1, б) мы рассматривали совпадения карт в двух коло- дах и нашли, что Sh = \/k\. Подставив это выражение в (3.1), полу- чим следующий результат.
126 Гл. IV. Комбинации событии При случайном сопоставлении двух одинаковых колод, состоя- щих из N различных карт, вероятности Р[т} получить ровно т совпадений равны Ло] = 1 —1 + 2i • • • ± (/V—2)! + (/V —1)1 =*= ТГ ’ n 1 । ,1 — 1 111 1 21 3! (/у—2)! + (ЛГ—1)1 ’ р_____—/1____1-I-—____— -1___Ч________1 -т- * 1 ^(21—2! V 21 31^ •” =Ь (N—3)! + (IV—2)! ]• Лз]=-др {1 —1 +-2Г з|Н • • • ± 3)| | > С1-1) Ллг-sJ — (JV—2)! {1 1 21 } ’ (N—1)1 P[N1~ AJI • Последнее соотношение очевидно. Обращение в нуль выражает тот факт, что невозможно получить N—1 совпадение без того, чтобы все N карт в каждой колоде были расположены в одинаковом порядке. Выражения в фигурных скобках в правых частях (4.1) являются первыми членами разложения е-1. [Поэтому для больших N мы имеем приближенное равенство PlM^e-i/ml. (4.2) Ниже в табл. 3 колонки, озаглавленные Рш, дают точные зна- чения Р[т] при N — 3, 4, 5, 6, 10. В последней колонке приве- дены предельные значения ри = е“1//п!. (4.3) Числа рт дают довольно хорошее приближение для Рм даже при небольших значениях N. Для чисел рт, определенных формулой (4.3), мы имеем У1, Pfe — е 1(1-Ь1"1"_2Г“1*-з|- +•••)=£ 1е=1. Следовательно, рк могут трактоваться как вероятности. Отметим, что (4.3) является частным случаем распределения Пуассона (2.11) с Х=1. Пример. Проверка способности угадывать. При дегустации вин, в физических экспериментах и т. д. проверяемого просят назвать неизвестный ему порядок расположения N предметов, скажем карт. Действительная способность угадывать с его стороны будет про- являться как отклонение от случайности. Для оценки степени этой
4. Приложение к задачам о совпадениях и об угадывании \27 способности мы должны уметь находить вероятности случайных удач. Угадывающий может придерживаться разных систем, среди которых мы упомянем три крайние возможности, (i) Угадывающий выбирает одну карту и называет все время ее. При такой системе он будет иметь одно и только одно правильное угадывание в каж- дой серии; случайные флуктуации исключены, (ii) Угадывающий называет каждую карту один раз, так что каждая серия из N угадываний соответствует перетасовке колоды. Если проверяемый не обладает способностью угадывать, то можно применить фор- мулы (4.1). (iii) Третья возможность заключается в том, что каж- дое из N угадываний производится совершенно независимо от дру- гих. Здесь имеется NN возможных комбинаций. Несомненно, что каждый человек имеет свои привычки и склонен называть опре- деленные комбинации чаще других, однако в первом приближении можно считать все NN комбинаций равновероятными. Так как т верных и N—т неверных угадываний могут быть произведены / I UN—1)^“^ различными способами, вероятность ровно т вер- ных угадываний равна /ЛА (Л^ —l)iV-/n NN (4.4) (Это частный случай биномиального распределения, которое было получено в примере гл. II, 4, в).) Таблица 3 Вероятности т правильных угадываний в колоде из N различных карт т Л/ = 3 7V = 4 /7 = 5 | ZV = 6 I 7V=10 Pm Ьт р[т] Ьт Ьт P[ml Ьт Ьт 0 0,333 0,296 0,375 0,316 0,367 0,328 0,368 0,335 0,36788 0,34868 0,367879 1 0,500 0,444 0,333 0,422 0,375 0,410 0,367 0,402 0,36788 0,38742 0,367879 2 0,222 0,250 0,211 0,167 0,205 0,187 0,201 0,18394 0,19371 0,183940 3 0,167 0,037 0,047 0,083 0,051 0,056 0,053 0,06131 0,05740 0,061313 4 5 6 7 8 9 10 0,042 0,004 0,008 0,006 0,000 0,021 o,66i 0,008 0,001 0,000 0,01534 0,00306 0,00052 0,00007 0,00001 • • • • • 0,01116 0,00149 0,00014 0,00001 0,015328 0,003066 0,000511 0,000073 0,000009 0,000001 0,000000 Р[т\ заданы формулой (4.1), Ьт—формулой (4.4). В последнем столбце при- ведены предельные вероятности (4.3) (распределение Пуассона). В табл. 3 приведены вероятности успеха, когда угадывание производится по системе (ii) или (iii). Чтобы оценить достоинства
128 Гл. IV. Комбинации событий этих двух методов, необходимо найти средние значения и величины случайных флуктуаций. Оказывается, что среднее число правиль- ных угадываний одинаково при всех системах; случайные отклоне- ния несколько больше при системе (ii), чем при (iii). Просмотр табл.З показывает, что практически разница не очень велика. ► § 5. РАЗЛИЧНЫЕ ДОПОЛНЕНИЯ а. Осуществление по меньшей мере т событий В обозначениях § 3 вероятность Рт того, что одновременно осуществляются т или более из событий Aif AN, равна РЛ/я] + Лет + 11+ • • • (5-О Для того чтобы выразить Рт через Sk, проще всего действовать методом индукции, начиная с выражения (1.5) для Pt и используя рекуррентное соотношение Pm+i = Pm—Р[тГ При т^1 получаем / т \ Рт~$т _______ jy ^/w + i “Ь f m+ 1\ /m+2\ IN—1\ Соотношение (5.2) можно вывести также и непосредственно, исполь- зуя рассуждения, которые привели к (3.1). б. Прочие тождества Коэффициенты Sv можно выразить через P{k} или Рк следую- щим образом: Sv = Jt ( у P[k\ (5.3) *=v \ v / и (5.4) Идея доказательства. При заданных значениях Рм соотноше- ния (3.1) можно рассматривать как линейные уравнения относи- тельно неизвестных Sv, и мы должны доказать, что (5.3) представ- ляет собой их единственное решение. Если подставить (5.3) в выра- жение (3.1) для Р[т}, то коэффициент при Р1к} (m^.k^.N) в правой части будет равен При k = m это выражение равно 1. При k> т сумма пред- ставляет собой биномиальное разложение (1 — \)ь-т и поэтому равна нулю. Следовательно, подстановка (5.3) сводит (3.1) к тож-
§ 6. Задачи 129 деству Р[т} — Р1тГ Единственность решения (3.1) следует из того, что каждое последующее уравнение содержит только одно новое неизвестное по сравнению с предыдущим, так что Sv могут быть вычислены последовательно. Справедливость (5.4) может быть доказана аналогичным образом. в. Неравенства Бонферрони Ряд неравенств как для Р[/я], так и для Рт может быть полу- чен следующим образом. Если либо в формуле (3.1), либо в (5.2) оставлены лишь слагаемые, содержащие Sm, Sm+i, Ет+Г_^, а слагаемые, содержащие Sm+r, Sm+r+i, ..., SN, отброшены, то погрешность (т. е. истинное значение минус приближенное зна- чение) имеет знак первого отброшенного члена \а именно, (—1)г] и не превосходит его по абсолютной величине. Таким образом, при г = 1 и г = 2 Sm-(m + l)SB!+f<P[n2]<SCT (5.6) И Sm-rnSm+i^Pm^Sm. (5.7) Идея доказательства. Тождество (3.1) показывает, что утверж- дение (5.6) эквивалентно неравенству 2 (5.8) v=/ \ т у для любого t. Для того чтобы представить левую часть в виде линейной комбинации P[k}, воспользуемся соотношением (5.3). При t k N коэффициент при P[kl равен fk—т—1\ Последняя сумма равна К ) и, следовательно, положительна (задача 13 гл. II, 12). Дальнейшие неравенства можно найти в монографии Фреше, цитированной в начале главы. § 6. ЗАДАЧИ Замечание. Предполагается, что в каждом случае все комбинации равнове- роятны. 1. В чулане находится десять пар ботинок. Случайно выбираются четыре ботинка. Найти вероятность того, что среди выбранных четырех ботинок есть по крайней мере одна пара. 2. Бросаются пять игральных костей. Найти вероятность того, что по мень- шей мере на трех из них выпадут одинаковые грани (проверить методами гл. II, 5). 3. Найти вероятность того, что при пяти бросаниях монеты герб выпадет по меньшей мере три раза подряд, 5 №221
130 Гл. 1 У< Комбинации, событий 4. Решить задачу 3 для случая по меньшей мере пяти последовательных выпа- дений герба при десяти бросаниях. 5. Решить задачи 3 и 4 для выпадения единицы, если бросается игральная кость вместо монеты. 6. Две кости бросаются г раз. Найти вероятность рг того, что каждая из ше- сти комбинаций (1, 1), . s (6, 6) появится по меньшей мере один раз. 7. Четверки у игрока в бридж. При игре в бридж среди тринадцати карт од- ного игрока могут содержаться 0, 1, 2 или 3 четверки карт одного значения. Вы- числить соответствующие вероятности. 8. Выбор с возвращением. Из генеральной совокупности п людей извлекается выборка объема г. Найти вероятность иг того, что в этой выборке будут содержать- ся N заданных людей. (Это задача 12 гл. II, 11.) 9. Выбор без возвращения. Ответить на вопрос задачи 8 в этом случае и показать, что иг—> (Это задача 3 гл. II, И, но настоящий метод при- водит к другому по форме результату. Доказать тождественность результатов.) 10. Доказать, что в общем разложении детерминанта порядка N число слагае- мых, содержащих один или более диагональных элементов, равно N\Pi, гдеРц определяется соотношением (1.7). 11. Доказать, что число способов, которыми 8 ладей могут быть расставлены на шахматной доске так, что ни одна из них не бьет другую и ни одна не стоит на белой диагонали, равно 8!(1—Рх), где Р± определяется соотношением (1.7) при ЛА=8. 12. Задача о выборке (о собирании купонов). Колода карт состоит из s одина- ковых наборов, содержащих каждый п карт, занумерованных числами 1, 2, . .. . п. Из колоды извлекается без возвращения случайная выборка объема Вычислить вероятность иг того, что каждое число представлено в выборке. (При- менительно к колоде карт для игры в бридж при s=4, п=13 получается вероят- ность того, что среди г выбранных карт содержатся все 13 значений, а при $== 13, п=4 — вероятность того, что в выборке представлены все четыре масти.) 13. Продолжение. Показать, что при s—> оо иг—> р0 (г, п), где послед- няя величина определена формулой (2.3). Это означает, что в пределе наш выбор становится случайным выбором с возвращением из совокупности чисел 1, 2, ..., п. 14. Продолжение. Из результатов задачи 12 вывести, что при г < п п 2 (-’)* ( ь ) («S-Mr = 0. ft=о к k J а при г — п п / \ У (-!)* I 2 I (ns-ks)n = s"n\. ft = о \k J Чтобы проверить это, вычислить r-ю производную при х = 0 функции 15. В задаче 12 о выборке найти вероятность того, что потребуется ровно г извлечений для получения выборки, содержащей все числа. Перейти к пределу при S—>СО. 16. В ядре клетки содержатся N хромосом, между любыми двумя из которых возможен обмен частями. Предположив, что произошло г обменов (которые могут осуществиться (^)г различными способами), найти вероятность того, что в них участвовало ровно т хромосом х). 17. Найти вероятность того, что среди 5 случайно выбранных карт из колоды для игры в покер отсутствует ровно k мастей. J) О случае ЛЛ=6 см. Catcheside D. G., Lea D. Е., Thoday J. M., Types of chromosome structural change introduced by the irradiation of tradescantia micro- spores, Journal of Genetics, 47 (1945—1946), 113—149.
§ 6, Задачи 131 18. Найти вероятность того, что набор из тринадцати карт из колоды для игры в бридж содержит ровно k пар «туз — король» одной масти. 19. Кратные совпадения. Две одинаковые колоды из N различных карт каждая сравниваются одновременно с такой же третьей (контрольной) коло- дой. Найти вероятность ит того, что будет ровно т двойных совпадений. Показать, что uQ—>1 при N—> оо (откуда вытекает, что ит—>0прит^1). 20. Сложные совпадения. Процедура сравнения из предыдущей задачи модифи- цируется следующим образом. Из 2N карт случайно выбираются N, и только эти N карт сравниваются с контрольной колодой. Найти вероятность отсутствия совпа- дений. Доказать, что она стремится к 1/е при Л/->оо. 21. Сложные совпадения. Решить задачу 20, если вместо двух используется г колод. 22. В классической задаче о размещении вероятность Р[т] (k) того, что ровно в т ящиках окажется по k шаров, равна р (k\ = rl V (-IV___________ mln' " (/ —m)l (п—/)! (г—/й)! (й!)/’ где суммирование распространяется на те для которых j^n и kj^r, 23. Доказать последнее утверждение §2 в случае &=1. 24. Используя (3.1), найти вероятность того, что в случае статистики Бозе — Эйнштейна ровно пг ячеек останутся пустыми. 25. Проверить, что формула, полученная в задаче 24, тождественна формуле (11.14) гл. II. 26. Доказать (1.5) индукцией по
ГЛАВА V УСЛОВНАЯ ВЕРОЯТНОСТЬ. СТОХАСТИЧЕСКАЯ НЕЗАВИСИМОСТЬ С этой главы мы продолжим систематическое изложение основ теории вероятностей. § 1. УСЛОВНАЯ ВЕРОЯТНОСТЬ Понятие условной вероятности является основным инстру- ментом теории вероятностей, и удручает тот факт, что его крайняя простота отчасти затемняется чрезвычайно сложной терминологией. Следующие ниже рассуждения естественным путем ведут к формаль- ному определению. Предварительные примеры Предположим, что в генеральной совокупности из N человек NA страдают дальтонизмом и NH являются женщинами. Обозначим через А и Н соответственно события, состоящие в том, что слу- чайно выбранный человек страдает дальтонизмом или что он яв- ляется женщиной. Тогда (см. определение случайного выбора, гл. II, 2) Р {Л} = Na/N, Р {Н} = NH/N. (1.1) Мы можем теперь сосредоточить внимание на подмножестве, состоя- щем из женщин. Вероятность того, что лицо, случайно выбранное из этого подмножества, страдает дальтонизмом, равна NHA/NH, где N НА—число женщин-дальтоников. Мы не приходим здесь к новому понятию, но нуждаемся в новом обозначении, указываю- щем на то, какое именно подмножество исследуется. Наиболее широко распространено обозначение Р{Л|Я}, которое может читаться как «вероятность события А (дальтонизм) при условии события Я (случайно выбранное лицо является женщиной)». В сим- волической записи: P{A\H} = NahJNh = P{AH}/P{H}. (1.2) Разумеется, каждое подмножество может рассматриваться как отдельная генеральная совокупность; мы употребляем термин под- множество только для удобства, для того чтобы подсознательно помнить, что мы имеем более широкую генеральную совокупность.
§ 1. Условная вероятность 133 Страховую компанию может интересовать частота повреждений, вызванных молнией и приносящих фиксированный ущерб (событие Д). Вероятно, эта компания имеет различные категории застрахо- ванных объектов: индустриальные, городские, сельские и т. д. Изучение отдельно ущерба, нанесенного индустриальным объектам, означает исследование события А лишь в связи с событием Я — «ущерб причин индустриальному объекту». Формула (1.2) вновь применима очевидным образом. Заметим, однако, что для страховой компании, специализирующейся на индустриальных объектах, мно- жество Я совпадает со всем пространством элементарных событий и Р {А\Н} сводится к Р{Д}. Наконец, рассмотрим игрока «Север» при игре в бридж. После сдачи карт он знает свои карты и интересуется только распределе- нием остальных 39 карт. Это побуждает рассматривать совокупность всех возможных распределений оставшихся 39 карт как новое пространство элементарных событий, однако совершенно очевидно, что удобнее рассматривать их в связи с данным распределением 13 карт игрока «Север» (событие Я) и говорить о событии А (ска- жем, «Юг» имеет двух тузов) при условии события Я. Формула (1.2) вновь применима. ► По аналогии с (1.2) введем формальное определение. Определение. Пусть Я — событие положительной вероятности. Для любого события А будем писать Р {А\Н}=Р {АН}/Р {Я}. (1.3) Так определенная величина будет называться условной вероятностью А при условии Я (или при заданном Н). Если все элементарные события имеют равные вероятности, то Р{Л|Я} равно отношению NAH/NH числа элементарных событий, общих для А и Я, к числу элементарных событий в Я. Условные вероятности остаются неопределенными, когда собы- тие Я имеет нулевую вероятность. Эта ситуация не существенна в дискретном случае, но важна в общей теории. Хотя обозначение Р {А\Н} само по себе является практичным, его словесная расшифровка этим свойством не обладает и использу- ется реже. Так, в нашем вводном примере мы рассматривали веро- ятность того, что женщина страдает дальтонизмом, не говоря «ус- ловная вероятность того, что случайно выбранное лицо страдает дальтонизмом, при условии, что оно является женщиной». Часто слова «при условии Я» заменяют словами «если известно, что Я осуществилось». Короче говоря, наши формулы и символы недву- смысленны, но словесные выражения часто неформальны и требуют четкого истолкования. Для стилистической ясности вероятности на исходном простран- стве элементарных событий будут иногда называться безусловными
134 Гл. V. Условная вероятность. Стохастическая независимость (абсолютными) вероятностями в отличие от условных вероятнос- тей. Строго говоря, прилагательное «безусловная» излишне и мо- жет быть опущено. Рассмотрение условных вероятностей различных событий при одном и том же данном событии Н равносильно выбору Я в ка- честве нового пространства элементарных событий с вероятностями, пропорциональными первоначальным. Коэффициент пропорциональ- ности Р {Н} необходим для того, чтобы сделать вероятность нового пространства элементарных событий равной единице. Из сказанного следует, что все основные теоремы о вероятностях остаются спра- ведливыми для условных вероятностей, взятых относительно неко- торого фиксированного события Н. Например, основное соотноше- ние для вероятности осуществления одного из событий А или В или их обоих принимает вид Р{Л иВ|Я} = Р{Л\Н} + Р{В\Н} — Р{ЛВ|Я}. (1.4) Аналогично переносятся на случай условных вероятностей все тео- ремы гл. IV, касающиеся вероятностей осуществления т из N событий, однако они нам не понадобятся. Формула (1.3) часто используется в следующем виде: Р {АН}>=Р {Л|Я}-Р {Я}. (1.5) Это так называемая теорема об умножении вероятностей. Для того чтобы обобщить ее на случай трех событий Л, В, С, положим сна- чала Н^=ВС и затем дважды применим (1.5); получим Р {ЛВС}-Р {Л|ВС}-Р {В|С}-Р {С}. (1.6) Аналогично проводится обобщение на случай любого числа собы- тий. В заключение приведем простую, но часто используемую фор- мулу. Пусть Ях, . . ., Нп — множество взаимно исключающих событий, таких, что одно из них непременно произойдет (т. е. объе- динение Яъ. . ., Я7г дает все пространство элементарных событий). Тогда любое событие Л может осуществиться только одновременно с некоторым Hj, или символически Л-ЛЯхиЛЯ2и. . .иЛЯп. (1.7) Поскольку AHj попарно несовместны, их вероятности складыва- ются. Применяя (1.5) к Я=Я7- и суммируя, получаем р{дь2рМ1адр{//д (1.8) Эта формула полезна потому, что оценка условной вероятности Р часто оказывается проще, чем прямое нахождение Р {Л }. Примеры, а) Выбор без возвращения. Из генеральной совокуп- ности, содержащей п элементов 1, 2, . . п, извлекается упо- рядоченная выборка. Пусть i и / — два различных элемента, Какова вероятность того, что вторым извлеченным элементом будет
1. Условная вероятность 135 j (событие А), если первым извлеченным элементом был I (событие /7)? Ясно, что Р {АН}=1/[п(п~ 1)] и Р {А\Н}~1/(п— 1). Это выра- жает тот факт, что второй выбор относится к генеральной совокуп- ности, состоящей из п—1 элементов, каждый из которых может быть выбран с одинаковой вероятностью. Действительно, боль- шинство естественных определений случайного выбора таковы: «Каковы бы ни были первые г выбранных элементов, на (г-\А\м шаге для каждого из оставшихся п—г элементов вероятность быть выбранным равна 1/(п—г)». Это определение эквивалентно данному в гл. II, но мы не вводили его ранее, поскольку оно опирается на понятие условной вероятности. б) Четыре шара последовательно размещаются в четырех ящи- ках, причем все 44 комбинаций равновероятны. Какова вероятность того, что одна из ячеек будет содержать ровно три шара (событие А), если известно, что первые два шара оказались в разных ячейках (событие /7)? При данном Н событие А может осуществляться двумя способами, и, таким образом, Р {А\Н}=2• 4~2=1/8. (Легко непосредственно проверить, что события Н и АН содержат 12 х Х42 и 12-2 точек соответственно.) в) Распределение по признаку пола. Рассмотрим семьи с двумя детьми. Обозначим буквами м и д соответственно мальчика и де- вочку, и на первом месте будем указывать старшего ребенка. Имеем четыре возможности: мм, мд, дм, дд. Это четыре элементарных собы- тия, и мы припишем каждому из них вероятность 1/4. Какова веро- ятность того, что оба ребенка мальчики (событие А), если известно, что в семье уже есть мальчик (событие //)? Событие АН означает мм, а Н означает мм или мд или дм. Поэтому Р {А |//}=1/3; примерно для каждой третьей семьи, для которой выполнено собы- тие Н, следует ожидать также выполнения события А. Интересно, что большинство людей ожидают ответ 1/2. Это правильный ответ на другой вопрос, а именно: мальчик выбран случайным образом и оказалось, что он из семьи с двумя детьми; какова вероятность того, что второй ребенок мальчик? Различие может быть объяснено эмпирически. В нашей первой задаче мы имели дело с множеством семей, во второй — с множеством мужчин. В последней задаче каж- дая семья с двумя мальчиками представлена дважды, и этим объяс- няется различие в результатах. г) Неоднородные совокупности. Предположим, что генеральная совокупность людей состоит из подмножеств или классов Н±, Н2, . . . . Это могут быть расы, возрастные группы, профессии и т. д. Пусть pj — вероятность того, что случайно выбранный из генераль- ной совокупности индивидуум принадлежит Hj. Фраза «qj есть ве- роятность того, что индивидуум из Hj является левшой» служит для более короткого выражения следующего факта: «qj есть услов- ная вероятность события А (является левшой) при условии, что индивидуум принадлежит Hj». Вероятность того, что случайным образом выбранный индивидуум является левшой, равна ihqi+
136 Гл. V. Условная вероятность. Стохастическая независимость +р27г+Рз7з+- • . , что представляет собой частный случай (1.8). Если известно, что индивидуум левша, то условная вероятность того, что он принадлежит подмножеству Я7-, равна Р {Hj\A . .)• (1.9) 2. ВЕРОЯТНОСТИ, ОПРЕДЕЛЯЕМЫЕ ЧЕРЕЗ УСЛОВНЫЕ ВЕРОЯТНОСТИ. УРНОВЫЕ МОДЕЛИ В предыдущем параграфе нам были заданы вероятности эле- ментарных событий, и мы нашли некоторые условные вероятности. В приложениях многие эксперименты описываются указанием определенных условных вероятностей (хотя прилагательное «ус- ловный» обычно опускается). Теоретически это означает, что веро- ятности на пространстве элементарных событий должны быть най- дены из заданных условных вероятностей. Как уже было отмечено выше (пример 1, а)), выбор без возвращения лучше всего определить следующим образом: если известен результат первых г испытаний, то на (г+1)-м шаге любой оставшийся элемент может быть выбран с одинаковой вероятностью. Аналогично в примере 1, г) неоднород- ная популяция полностью описывается указанием абсолютных веро- ятностей pj каждого класса и условных вероятностей qj, характери- зующих левшей в каждом классе. Еще несколько примеров разъяс- нят общую схему лучше, чем прямое описание. Примеры, а) Возвратимся к примеру гл. I, 5, б), в котором в игре принимают участие три игрока а, b и с. В таблице (*) гл. 1,5 описано пространство элементарных событий, но мы еще не опре- делили на нем вероятности. Предположим теперь, что игра такова, что в каждой партии оба игрока имеют вероятность выигрыша 1/2. Это определение не содержит слов «условная вероятность», однако неявно ее использует. Оно означает, что если игрок а участвует в r-й партии (событие Я), то вероятность его выигрыша в этой партии равна 1/2. Из (1.5) следует, что вероятность того, что а вы- играет в первой и второй партиях, равна 1/4 (символически Р {аа}^ — 1/4). Повторное применение (1.5) показывает, что Р {асс}—\/8, Р {acbb}^= 1/16 и т. д., т. е. элементарное событие в схеме (#), включающее г букв, имеет вероятность 2“г. Такие же вероятности использованы в задаче 5 гл. 1,8, однако теперь их описание более наглядно. (Продолжение см. в задаче 14.) б) Семьи. Мы хотим истолковать следующее утверждение: «ве- роятность того, что в семье имеется ровно k детей, равна рк (где 2p/i = 1). При любом фиксированном числе детей в семье все воз- можные их распределения по признаку пола равновероятны». Пусть буква м означает мальчика, а д — девочку. Пространство элементарных событий состоит из точек 0 (нет детей), м, д, мм, мд, дм, дд, ммм,. . . . Второе из наших предположений более строго формулируется так: если известно^ что в семье ровно п
§ 2. У p новые модели 137 детей, то каждое из 2п возможных распределений их по признаку пола имеет условную вероятность 2~п. Вероятность условия равна рп, и из (1.5) находим, что безусловная вероятность любой последо- вательности из п букв м и д равна рп-2~п. Заметим, что это пример генеральной совокупности, разделенной на классы: семьи, имеющие / детей, образуют класс Hj. В качестве упражнения рассмотрим событие А «в семье есть мальчики, но нет девочек». Его вероятность, очевидно, равна Р {Л }^=pi-2“1+/?gx х2~2+. . . , что является частным случаем (1.8). Условием Hj в этом случае является событие «в семье / детей». Зададим теперь вопрос: чему равна (условная) вероятность того, что в семье один ребенок, если известно, что в ней нет девочек?» Здесь условием явля- ется А. Пусть И— событие «имеется только один ребенок». Тогда АН означает «имеется один ребенок, не являющийся девочкой» и Р М} = уру = ^2-1 + pJ-a +Рз2-з+ , ~ это частный случай (1.9). в) Урновые модели эффекта последействия. Рассмотрим для определенности завод, на котором возможны аварии. Каждую ава- рию можно рассматривать как результат случайности: из урны, содержащей красные и черные шары, через постоянные интервалы времени случайно извлекается один шар, причем красный шар оз- начает аварию. Если вероятность аварии постоянна во времени, то состав урны остается неизменным. Более реальной, однако, является ситуация, когда каждая авария приводит к эффекту последействия, в силу которого вероятность новой аварии либо увеличивается, либо уменьшается. Это соответствует урне, содержимое которой меняется по определенным правилам, зависящим от исходов последо- вательных извлечений. Легко придумать много таких правил, отве- чающих различным ситуациям, однако мы ограничимся обсужде- нием одной следующей модели *). Урновая модель. Урна содержит b черных и г красных шаров. Случайно извлекается шар. Он возвращается обратно, и, кроме того, добавляется с шаров одного с ним цвета и d шаров другого цвета. Производится новое случайное извлечение из урны, (теперь содержа- щей r-\-bA~cA~d) шаров, и описанная процедура повторяется. Здесь с и d — произвольные целые числа. Они могут быть выбраны отрицательными, однако в этом случае процесс может окончиться х) Идея использовать урновые схемы для описания эффекта последействия (заражения) была, по-видимому, впервые предложена Пойа. Его схема (впервые введенная в работе Eggenberger F., Polya G., Uber die Statistik verketteter Vor- gange, Zeitschrift fiir Angewandte Mathematik und Mechanik, 3 (1923), 279—289) послужила прототипом для многих других моделей, которым посвящена обшир- ная литература. Модель, описанная в тексте, и три ее частных варианта были пред- ложены Фридманом (Friedman В., A simple urn model, Communications on Pure and Applied Mathematics, 2 (1949), 59—70),
138 Гл. V. Условная вероятность. Стохастическая независимость после конечного числа извлечений из-за отсутствия шаров. В част- ности, выбирая с~ —1 и d~0, имеем модель случайного выбора без возвращения, который оканчивается через г+b шагов. Чтобы придать нашему образному описанию точный математи- ческий смысл, заметим, что оно определяет условные вероятности, из которых могут быть вычислены некоторые основные вероятности. Точку пространства элементарных событий, соответствующую п извлечениям, можно представить как последовательность п букв Ч и К. Событие «первым извлечен черный шар» (т. е. множество всех последовательностей, начинающихся с Ч) имеет вероятность b/(b+r). Если первый шар черный, то вероятность (условная) того, что при втором извлечении будет черный шар, равна (b+c)/ (b+r+c+d). Вероятность (безусловная) последовательности «черный, черный» (т. е. множество элементарных событий, начинающихся с ЧЧ) равна, следовательно, по (1.5) [b/(b+r)l[ (b+c)/ (b+r+c+d)]. (2.2) Вероятность последовательности «черный, черный, черный» равна (2.2), умноженному на (b+2c)/(b+r+2c+2d) и т. д. Таким способом могут быть вычислены вероятности всех элементарных событий. Легко проверить по индукции, что сумма вероятностей всех эле- ментарных событий равна единице, как и должно быть. Точные выражения для вероятностей получить нелегко, за исключением следующего, самого важного и лучше всего изученного частного случая. Урновая схема Пойа, характеризующаяся значениями d?=0, с>0. В этом случае после каждого извлечения число шаров цвета выбранного шара увеличивается, тогда как число шаров другого цвета не меняется. Это приводит к тому, что извлечение шара опре- деленного цвета увеличивает вероятность выбора шара того же цвета при следующем извлечении, и мы получаем грубую модель такого явления как заражение, при котором каждое заболевание увеличивает вероятность дальнейших заболеваний. Вероятность того, что при п—П1+/?2 извлечениях в первых nt были черные шары, а в остальных /?2 красные, равна b(b-\-c) (b+2c)\,,r(b + njc—c)-r (r + n2c—c) о\ (6 + г) (Ь + г+с) (&4-г+2с) ... (Ь-^-г + пс—с) * ' ’ ' Рассмотрим далее любой другой порядок выбора черных и п2 красных шаров. Вычисляя вероятность того, что п извлечений приведут к такому порядку цветов, мы получим те же множители, что в (2.3), но расположенные в другом порядке. Отсюда следует, что все возможные последовательности nt черных и пъ красных шаров имеют одинаковые вероятности. Аналитическая простота (и, следовательно, легкость применения) урновой схемы Пойа сле- дует главным образом из этого характеристического свойства. Чтобы
*§2. У р новые модели 139 найти вероятность п того, что при п извлечениях было п± чер- ных и щ красных шаров в произвольном порядке, мы должны умножить (2.3) на а именно на число возможных упорядоче- ний. Использование обобщенных биномиальных коэффициентов позволяет записать эту вероятность в любой из следующих форм: fni—/п2—14-r/c\ /— Ь/с\ f — rjcX n — \ J \ n2 J __ \ "i / \ «2 / /О w / n — 1 + (£> —J-r)/c \ /— (Z?+r)/c\ • \ f k n J \ n J (Обсуждение схемы Пойа продолжается в задачах 18—24; см. также задачи 9 и 10 гл. XVII, 10.) В дополнение к схеме Пойа рассмотрим еще одну урновую мо- дель, представляющую интерес, а именно модель Эренфестов. Модель Эренфестов х) теплообмена между двумя изолированными телами, В первоначальном описании модели, используемом фи- зиками, рассматриваются два сосуда I и II и k находящихся в них частиц. Случайным образом выбирается частица и переносится в другой сосуд. Эта процедура повторяется. Каково распределение частиц после п шагов? Для того чтобы свести эту задачу к урновым моделям, достаточно назвать частицы в сосуде I красными шарами, а в сосуде II — черными шарами. Тогда после каждого извлечения выбранный шар заменяется шаром другого цвета, т. е. мы имеем с——1, d=l. Ясно, что в этом случае процесс может продолжаться сколь угодно долго (если не останется красных шаров, то автомати- чески извлекается черный и заменяется на красный). (Мы обсудим модель Эренфестов с другой точки зрения в примере гл. XV, 2,д).) Частный случай с—0, d>0 был предложен Фридманом в качестве модели службы безопасности. Каждый раз, когда происходит авария (т. е. извлекается красный шар), служба безопасности усиливает контроль; если же аварии не происходит, то контроль ослабевает и вероятность аварии увеличивается. г) Урновые модели для неоднородных совокупностей. Ложное за- ражение. Развивая предыдущий пример, предположим, что каждый человек подвержен несчастным случаям; произойдет или не произой- дет этот несчастный случай, определяется случайным извлечением шара из урны. Однако на этот раз будем предполагать, что нет никакого эффекта последействия, так что содержимое урны остается неизменным в течение всего процесса. Зато вероятность несчастного случая или предрасположенность к нему меняется от человека к человеку или от профессии к профессии, и мы предполагаем, что каждому человеку (или каждой профессии) соответствует своя урна. х) Ehrenfest Р., Ehrenfest Т., Uber zwei bekannte Einwande gegen das Boltz- mannsche //-Theorem, Physikalische Zeitschrift, 8(1907), 311—314. Математическую теорию см. Kac М., Random walk and the theory of Brownian motion Amer. Math, Monthly, 54 (1947), 369—391»
140 Гл. V. Условная вероятность. Стохастическая независимость Для того чтобы не усложнять без необходимости изложение, пред- положим, что имеется всего два типа людей (две профессии) и их числа во всей совокупности относятся как 1 : 5. Рассмотрим теперь урну I, содержащую красных и bi черных шаров, и урну II, содержащую г2 красных и Ь2 черных шаров. Эксперимент «слу- чайным образом выбираем человека и наблюдаем, сколько несчаст- ных случаев произошло с ним в течение п единиц времени» можно интерпретировать следующим образом: бросается игральная кость', если выпадает единица, то выбираем урну I, в противном случае выбираем урну II. В каждом случае производится п случайных изв- лечений с возвращением из выбранной урны. Наш эксперимент опи- сывает ситуацию, возникающую при заключении договора между страховой компанией и новым клиентом. Используя (1.8), находим, что вероятность извлечения первым красного шара равна Р {/С} = (1/6) \г1ЦЬ1 + G)] + (5/6) [г2/(Ь2 + га)], (2.5) а вероятность последовательности «красный, красный» составляет Р {КК\ = (1/6) [rj^ + rx)p + (5/6) [r2/(fr2 + r2)p. (2.6) Наша модель не приводит к новым математическим задачам, однако она имеет интересную особенность, приводящую в приложениях к неожиданным выводам. Предположим, что страховая компания регистрирует, что в течение первого года с новым клиентом произо- шел несчастный случай, и интересуется вероятностью несчастного случая с ним в следующем году. Иначе говоря, какова (условная) вероятность последовательности «красный, красный», если при первом испытании извлечен красный шар. Очевидно, она равна отношению? {КК}/Р {К} и отличается отР {К}. Для иллюстрации предположим, что rj (Ьх+гО—ОД и r2! Вероятность извлечения красного шара в любом испытании равна 0,15, но если при первом испытании был извлечен красный шар, вероятность того, что красный шар будет извлечен при следующем, равна 0,42. Заметим, что наша модель предполагает отсутствие последействия для всей совокупности, однако несчастный случай со случайно выбранным человеком увеличивает вероятность того, что с ним же произойдет второй несчастный случай. Здесь мы имеем просто эффект выбора: несчастный случай не оказывает действитель- ного влияния на будущее, а только указывает, что выбранный че- ловек имеет большую предрасположенность к несчастным случаям. Поэтому продолжающиеся наблюдения позволяют уточнить наши прогнозы, даже если в действительности прошлое вообще не влияет на будущее. В статистической литературе стало привычкой использовать термин заражение вместо эффект последействия. Кажущийся эф-
g 21 Урновые модели 14% фект последействия выбора сначала неправильно интерпретиро- вался как эффект действительного заражения, и поэтому статистики теперь говорят о заражении (или о вероятностных распределениях при заражении) в неясном и вводящем в заблуждение смысле. Возьмем, например, натуралиста, который ловит насекомых в поле. Если после периода неудач он находит насекомое, то вполне ве- роятно, что он находится вблизи выводка, и в этом случае можно ожидать дальнейших успехов. Иначе говоря, на практике каждый успех увеличивает вероятность дальнейших успехов, но отметим еще раз, что это только эффект увеличения информации, обеспечивае- мый выбором. Никакого эффекта последействия здесь нет, и ста- тистики вводят в заблуждение, когда говорят о заражении. д) Следующий пример широко известен и поучителен, но не- сколько искусствен. Представим себе совокупность из Af-Ы урн, в каждой из которых содержится N шаров; урна с номером k содержит k красных и N—k белых шаров (&=0, 1, 2,. . . , N). Случайным образом выбирается урна и из нее п раз извлекаются шары, причем выбранный шар каждый раз возвращается обратно. Предположим, что все п выбранных шаров оказались красными (событие Л). Найдем (условную) вероятность того, что следующим будет извлечен также красный шар (событие В). Если сначала была выбрана урна с номером k, то вероятность того, что из нее были последовательно извлечены п красных шаров, равна (k!N)n. Сле- довательно, в силу (1.8) Р {А} == (1п + 2" + ... 4- N”)/[Nn (N + 1)]. (2.7) Событие АВ означает, что при п+1 извлечениях были красные шары, и поэтому Р {АВ} = Р {В} = (1"+1 + 2n+1 + ... + Nn+^)/[Nn+1 (N + 1)]. (2.8) Искомая вероятность равна Р {В|Л}=Р {В}/Р {Л}. При больших значениях N числитель в (2.7) относительно мало отличается от площади между осью х и графиком хп в интер- вале (О, N). Тогда приближенно имеем N Р И} ?/«(л/ + 1) j хП dx = [лгрт * "п+Т [п+Т ’ о Аналогичные вычисления, примененные к (2.8), показывают, что для больших N приблизительно Р{В|Л}^ (п+1)/(п+2). (2.10) Этот результат можно грубо интерпретировать следующим образом: если все возможные варианты содержимого урны равновероятны и при п испытаниях появлялись красные шары, то вероятность по- явления красного шара при следующем испытании равна (п+1)/ /(п+2). Это так называемый закон следования Лапласа (1812).
142 Гл. V. Условная вероятность, Стохастическая независимость До развития современной теории понятие равновероятности часто использовалось как синоним для «отсутствия предваритель- ных знаний». Сам Лаплас иллюстрировал применение (2.10) вычис- лением вероятности того, что Солнце взойдет на следующий день, если оно всходило ежедневно в течение 5000 лет или п= = 1 826 213 дней. Говорят, что Лаплас был готов поставить 1 826 214 против 1 за то, что Солнце не изменит своего поведения; в наше время следовало бы увеличить ставку, так как регулярное движение Солнца наблюдалось в течение еще одного столетия. Чтобы понять, что имел в виду Лаплас и истолковать его выводы, потребовалось бы целое историческое исследование. Его последователи, однако, использовали аналогичные рассуждения повсеместно и рекомендо- вали физикам и инженерам применять такие методы в случаях, в которых полученные формулы не имеют никакого реального смысла. Мы должны отвергнуть этот метод, даже если допустим, что наша вселенная случайно выбрана из некоторого множества вселенных, в котором все мыслимые возможности равновероятны. Действитель- но, он претендует на оценку шансов восхода Солнца завтра на ос- нове предположения о том, что оно всходило в прошлом. Однако предполагаемый восход Солнца 5 февраля 3123 г. до н. э. ничуть не болеедостоверен, чем восход Солнца завтра. У нас одинаковые ос- нования верить в оба этих события. > Замечание о формуле Бейеса. В (1.9) и (2.2) мы нашли некоторые условные вероятности, исходя непосредственно из определения. Начинающему рекоменду- ется поступать так всегда и не запоминать формулу (2.12), которую мы сейчас выведем. Она воспроизводит в общем виде то, что мы делали в частных случаях, и является просто другой формой записи (1.3). В примерах мы имели группу вза- имно исключающих и исчерпывающих все пространство событий Н±, Н2, . . ., т. е. таких, что каждое элементарное событие принадлежит одному и только одному из Нj, и нас интересовала следующая вероятность: Р{Я*|А}=Р{АЯ*}/Р{А}. (2.11) Если в (2.11) подставить (1.5) и (1.8), то эта формула принимает вид р {Нк I Л} = Р {А I Нк} Р {Нк}12 р {A I Hj} Р {Hj}, (2.12) Если события назвать гипотезами, то (2.12) будет «формулой Бейеса для вероят- ностей гипотез». С математической точки зрения (2.12) представляет собой специ- альный вид записи (1.3) и ничего больше. Эта формула полезна во многих статисти- ческих приложениях, подобных описанным в примерах б) и г), где мы ее и исполь- зовали. К сожалению, формула Бейеса была дискредитирована метафизическими приложениями вроде описанного в примере д). На практике подобные рассужде- ния могут привести к опасным последствиям. Инженер по контролю качества имеет дело с одной конкретной машиной, а не с бесконечным множеством машин, из ко- торого случайно выбрана одна. Между тем ему советуют пользоваться формулой Бейеса на том основании, что она логически приемлема и соответствует нашей ма- нере мышления. Такие доводы использовал Платон для доказательства существо- вания Атландиты, а некоторые философы используют для доказательства нелепо- сти механики Ньютона. В нашем случае эти доводы не учитывают того обстоятель- ства, что инженер желает достичь определенного успеха и что он поступит лучше, оценивая и доводя до минимума источники различного рода ошибок в своих пред-
§3, Стохастическая независимость 143 видениях и догадках. Современные методы статистических проверок и оценок менее наглядны, но более реалистичны. Их можно не только оправдать рассужде-« ниями, но и применять, § 3. СТОХАСТИЧЕСКАЯ НЕЗАВИСИМОСТЬ В примерах, приведенных выше, условная вероятность Р {Л|Я}, как правило, не равнялась безусловной вероятности Р {Л}. Грубо говоря, информация о том, произошло или нет событие Н, меняет наше отношение к возможности наступления события А. Только в том случае, когда Р {А|7/}=Р {Л}, эта информация не позволяет сделать никаких выводов об Л. В этом случае мы будем говорить, что Л стохастически не зависит от Я. Из формулы (1.5) следует, что условие Р {Л|Я}=Р {Л} может быть записано в виде Р {ЛЯ}=Р {Л}-Р {Я}. (3.1) Это равенство симметрично относительно Л и Я и показывает, что если Л стохастически не зависит от Я, то и Я стохастически не зависит от Л. Таким образом, лучше отправляться от следую- щего симметричного определения. Определение 1. Два события А и Я называются стохастически независимыми (или, короче, независимыми), если имеет место ра- венство (3.1). Это определение распространяется и на случай Р {Н}=0, в кото- ром Р {Л |Я} не определена. Термин статистическая независимость является синонимом термина стохастическая независимость. На практике обычно бывает ясно, что некоторые события должны быть независимыми, иначе вероятностная модель будет абсурдной. Однако, как покажут приводимые ниже примеры, существуют ситуа- ции, в которых стохастическая независимость может быть установ- лена только путем вычислений. Примеры, а) Из колоды игральных карт случайным образом извлекается одна карта. Из соображений симметрии мы ожидаем, что события «пика» и «туз» независимы. И действительно, их веро- ятности равны 1/4 и 1/13, а вероятность их одновременного осуществ- ления равна 1/52. б) Бросаются две правильные игральные кости. События «еди- ница на первой кости» и «четное число очков на второй» независимы, так как вероятность их одновременного осуществления 3/36=1/12 равна произведению их вероятностей, а именно 1/6 и 1/2. в) При случайной перестановке четырех букв (a, b, с, d) собы- тия «а предшествует &» и «с предшествует d» независимы. Это интуи- тивно ясно и легко проверяется. г) Распределение по признаку пола. Вернемся к примеру 1,в), но теперь рассмотрим семьи с тремя детьми. Предположим, что каж- дая из восьми возможностей ммм, ммд, . . . , Одд имеет вероят-
Гл, V. Условная вероятность. Стохастическая независимость ность 1/8. Пусть Н — событие «в семье имеются дети обоих полов» и А — событие «имеется не более одной девочки». Тогда Р {Н} — —6/8 и Р {Л }=4/8. Одновременное осуществление Л и Я озна- чает одну из возможностей ммд, мдм, дмм, и, таким образом, Р {АН}=3/8=Р {Л}-Р {Н}. Таким образом, для семей с тремя детьми эти два события независимы. Отметим, что это не так в случае семей с двумя или четырьмя детьми. Это показывает, что не всегда очевидно, имеем мы независимость или нет. ► Если осуществилось событие Н, то противоположное событие Н' не осуществилось, и наоборот. Из стохастической независимости следует, что из осуществления Н нельзя сделать никаких выводов об Л; поэтому стохастическая независимость А и Н будет озна- чать то же самое, что независимость Л и Я' (и в силу симметрии событий Л' и Я, а также А' и Я'). Это утверждение легко прове- рить, используя соотношение Р {Н'}=1—Р {Я}. Действительно, если имеет место (3.1), то (поскольку АН'=А—АН) Р{ЛЯ'} = Р{Л} — Р{ЛЯ} = Р{Л} — Р{Л}.Р{Я} = Р{Л}.Р{Я'}, (3.2) как и ожидалось. Предположим теперь, что три события Л, В и попарно неза- висимы, т. е. Р {ЛВ)=Р {Л}-Р {В}, Р {ЛС}=Р {Л}-Р {С}, (3.3) Р {ВС}=Р {В}.р {С}. Можно подумать, что из этих трех соотношений будет следовать равенство Р {АВС}=Р {Л}Р {В}Р {С}, иначе говоря, что из попарной независимости трех событий следует независимость двух событий АВ и С. Это почти всегда так, однако в принципе возможно, что (3.3) имеет место, но в то же время Р {ЛВС}=0. Фактически такие явления настолько редки, что их возможность не была замечена до тех пор, пока С. Бернштейн не построил соот- ветствующий пример. Этот пример является искусственным, однако его существование побуждает искать естественные примеры. Пример, д) Рассмотрим шесть перестановок букв а, Ь, с, а также три тройки (а, а, а), (Ь, Ь, Ь) и (с, с, с). Возьмем эти девять троек в качестве точек пространства элементарных событий и при- пишем каждой вероятность 1/9. Обозначим через Ak событие, со- стоящее в том, что на k-м месте находится буква а, Очевидно, каж-
§З.Стохасти'4еская независимость 145 дое из этих трех событий имеет вероятность 1/3, в то время как Р {ЛЛ2}=Р МИз}=Р {л2л3}=1/9. Три события являются, таким образом, попарно независимыми, но не взаимно независимыми, потому что Р {AXA 2Л3 }=1/9. (Осу- ществление Ai и Л2 влечет осуществление А3, и, значит, А3 не является независимым от Л1Л2.) Мы получим дополнительные примеры, рассматривая также события Bk и Ск, состоящие соответственно в том, что на k-м месте находятся буквы b и с. Всего имеем теперь девять событий, вероятность каждого из которых равна 1/3. Очевидно, Р {ЛьВ2}= = 1/9, и вообще каждые два события с разными индексами незави- симы. С другой стороны, буквы, стоящие на первых двух местах, однозначно определяют букву, стоящую на третьем месте, и, таким образом, С3 не является независимым от каждого из девяти событий Л1Л2,. . . , CiC2, относящихся к буквам, стоящим на первых двух местах х). Мы вернемся к этому примеру в конце § 1 гл. IX. До- полнительный пример приводится в задаче 26. ► Желательно сохранить термин стохастическая независимость для случая, когда имеет место не только (3.3), но также Р{АВС}=Р{А}Р{В}Р {С}. (3.4) Это равенство обеспечивает независимость событий А и ВС, а также В и АС, и С и АВ. Кроме того, можно доказать, что А и В и С также независимы. Действительно, из основного соотношения (7.4) гл. I имеем Р {(Л и В)С}-Р {ЛС}+Р {ВС}—Р {АВС}. (3.5) Применяя вновь (3.3) и (3.4) к правой части, можем вынести множи- тель Р{С}. Второй множитель есть Р {А }+Р {В}—Р{АВ }=Р {Д U В} и, таким образом, Р {(Л UB)C}=P {(A UB)}P {С}. (3.6) Поэтому представляется правдоподобным предположение, что ус- ловий (3.3) и (3.4) в совокупности достаточно для того, чтобы избежать затруднений: каждое событие, которое можно выразить через А и В, не будет зависеть от С. Определение 2. События Ai, Д2, ... , Ап называются взаимно независимыми, если для любых комбинаций 1^/</<й<. . х) Эти рассуждения обобщаются на совокупности из г символов, г > 3. Пространство элементарных событий в этом случае содержит г\-\- г точек, а именно г\ перестановок символов alf ..., аг и г последовательностей вида (aj, aj,..., aj). Каждой перестановке припишем вероятность 1/[г2 (г — 2)!], а каждой последовательности вида (aj, aj, ..., aj) вероятность 1/г2. Если Событие А/г означает, что tzi находится на k-м месте, то Ak попарно незави- симы, но никакие три из этих событий не являются взаимно независимыми.
И6 Гл, V. Условная вероятность. Стохастическая независимость'' справедливы правила умножения рмлнтрмл р{Л;.ла} = рМ/}Р{^}р{4}> . ................................... (3.7) Р{АЛ2 а‘} = Р{а‘}Р{А,} ..’. Р{Л„}. (п\ ( п\ В первой строке стоят I 0 ) равенств, во второй—( „ 1и т.д. \ / \ о J Следовательно, имеем условий, которые должны быть выполнены. С другой стороны, (t]\ 2 j условий в первой строке достаточно для того, чтобы обеспе- чить попарную независимость. Вся система (3.7) выглядит как сложное множество условий, однако скоро станет ясно, что ее справедливость обычно очевидна и не нуждается в проверке. Приме- няя индукцию, легко увидеть [начиная с п=2 и (3.2)], что в оп- ределении 2 систему (3.7) можно заменить системой из 2п равенств, получаемой из последнего равенства (3.7) заменой произвольного числа событий Aj их дополнениями А]. § 4. ПРОИЗВЕДЕНИЕ ПРОСТРАНСТВ. НЕЗАВИСИМЫЕ ИСПЫТАНИЯ Мы теперь окончательно готовы к тому, чтобы ввести математи- ческий аналог эмпирических процедур, обычно называемых непре- рывным экспериментированием, повторяющимся наблюдением, объе- динением двух выборок, комбинированием двух экспериментов и рассмотрением их как частей единого целого и т. д. Понятие независимых испытаний соответствует интуитивному понятию «эк- спериментов, повторяемых в одинаковых условиях». Это понятие является основным для теории вероятностей и придает большую строгость примерам, рассмотренным выше. Сначала нам понадобится понятие, не являющееся специфичным 1ля теории вероятностей. Прямым произведением двух множеств А 1 В называется множество всех упорядоченных пар (а, Ь) из их элементов. Мы будем обозначать1) его через (А, В). Определение 'ривиально распространяется на тройки (Л, В, С), четверки (Ая 3, С, D) и даже на бесконечные последовательности. х) Другим общеупотребительным обозначением является ЛХ^» Термины прямое произведение» и «декартово произведение» — синонимы.
§4. Произведение пространств. Независимые испытания 147 Понятие прямого произведения настолько естественно, что мы его уже неявно использовали. Например, мыслимый эксперимент, состоящий в трехкратном бросании монеты, описывается простран- ством элементарных событий, содержащим восемь точек, а именно троек, которые могут быть образованы из двух букв Г и Р. Это позволяет говорить, что пространство элементарных событий явля- ется прямым произведением трех пространств, каждое из которых состоит из двух точек (элементов) Г и Р. Вообще, когда мы говорим о двух последовательных испытаниях, мы имеем в виду простран- ство ©, точки которого представляют собой пары возможных исходов, и поэтому © является прямым произведением двух про- странств элементарных событий, соответствующих отдельным испытаниям. Два данных мысленных эксперимента с пространства- ми элементарных событий и S3 можно рассматривать одновре- менно или последовательно. Это позволяет рассматривать пары возможных исходов, т. е. ввести прямое произведение (§1, S3) в качестве нового пространства элементарных событий. Возникает вопрос: как должны быть определены вероятности на новом про- странстве элементарных событий? Ответ зависит от обстоятельств, но до рассмотрения этого вопроса мы обратимся к двум примерам, которые помогут понять основные идеи и объяснят применяемую терминологию. Примеры, а) Декартовы пространства. Когда точки плоскости представлены парами действительных чисел (х, у), плоскость ста- новится прямым произведением двух осей. (Тот факт, что геометрию на плоскости можно изучать без использования координат, показы- вает, что одно и то же пространство можно рассматривать с раз- личных точек зрения.) Трехмерное пространство с точками (%, у, z) можно рассматривать либо как прямое произведение трех осей, либо как прямое произведение плоскости х, у и оси z. На плоскости множество точек, удовлетворяющее двум условиям 0<х<1 и 0<7/<1, является прямым произведением двух единичных интервалов. Заметим, однако, что такое описание невозможно для произвольных множеств, таких, как треугольники и эллипсы. Наконец, заметим, что в пространстве %, //, z множество, опреде- ленное теми же самыми неравенствами, является бесконечным цилиндром с квадратным основанием. Вообще в трехмерном про- странстве каждое множество, в определение которого входят только координаты х и у, можно рассматривать как цилиндр с образую- щими, параллельными оси z. б) Алфавиты и слова. Пусть А состоит из 26 букв английского алфавита. Тогда прямое произведение (Л, Л, Л) является множе- ством всевозможных троек букв или, как мы будем говорить, всех трехбуквенных «слов». Так принято в теории связи и в теории коди- рования, но неестественно рассматривать слова фиксированной длины. Действительно, сообщение произвольной длины может
148 Гл. V. Условная вероятность. Стохастическая независимость рассматриваться как «слово», если к алфавиту добавить новый сим- вол для разделения (пробел). Поэтому нет необходимости вводить какие-либо ограничения на длину слов: любое конечное сообщение может рассматриваться как начало потенциально неограниченного сообщения, так же как написанное слово потенциально является первым в некоторых сериях. Попутно отметим, что в теории связи ис- пользуются произвольные коды и под ее влиянием стало общеупот- ребительным называть произвольные символы буквами некоторого алфавита. В этом смысле исходы п повторных испытаний назы- вают «сообщением» или «словом» длины п. ► Если ©—произвольное пространство элементарных событий с точками Ei? Eg, ...» то /г-кратное прямое произведение (©, ©,... ..., ©) пространства © самого на себя называют пространством элементарных событий для последовательности п испытаний, соот- ветствующих ©. Удобно описывать его точки в общем виде сим- волами, такими, как (хп xj, где каждое означает некото- рую точку из ©. По аналогии с примером a) обычно называют координатами. Термины множество и событие могут использоваться как синонимы. Событие, которое зависит только от исхода пер- вых двух испытаний, обычно называют множеством, зависящим только от первых двух координат1). Как уже было указано выше, все эти понятия и обозначения переносятся на случай бесконечных последовательностей. Формально это не вызывает трудностей; например, десятичная последователь- ность 3,1415... представляет число л как точку в пространстве, являющемся бесконечным произведением, только вместо n-я коор- дината говорят гг-я десятичная цифра. Бесконечные произведения пространств очень естественны для теории вероятностей. Неже- лательно фиксировать число бросаний монеты или продолжитель- ность случайного блуждания. Теория становится более гибкой и простой, если мы допустим потенциально неограниченные последо- вательности испытаний и сосредоточим внимание на событиях, за- висящих только от первых нескольких испытаний. Этот более про- стой и удобный подход, к сожалению, требует применения аппарата теории меры. Задачей настоящего тома является ознакомление с ос- новными идеями теории вероятностей, не осложненное техничес- кими трудностями. По этой причине мы ограничиваемся дискрет- ными пространствами элементарных событий и должны удовлетво- риться изучением конечного числа испытаний. Это означает, что, расплачиваясь за простоту, мы вынуждены иметь дело с неопреде- ленными или изменяющимися пространствами элементарных собы- х) То есть если точка (х±, х2) .«.) принадлежит этому множеству, то ему принадлежат все точки (x'lt х2, ...), у которых х^—Х}, х'2 — х2. По аналогии с примером а) множества, зависящие только от некоторых координат (в любом числе), называют цилиндрическими.
§ 4. Произведение пространств. Независимые испытания 149 тий. Такой вариант теоретически неудовлетворителен, но в изве- стной мере полезен практически. Обратимся теперь к вопросу о задании вероятностей на произве- дении пространств. Различные урновые модели § 2 могут быть описаны при помощи повторных испытаний, и мы видели, что ве- роятности в различных схемах можно определить посредством ус- ловных вероятностей. Могут быть рассмотрены различные виды зависимости между последовательными испытаниями, но наиболее важно понятие независимых испытаний или, более общо, независи- мых экспериментов. Для определенности рассмотрим два пространства элементарных событий 31 и 33 с точками ai? а2, ... и |32, ..., имеющими вероятности р±, р2, .., и qlf q2, ... соответственно. Мы интер- претируем произведение пространств (31, 33) как пространство эле- ментарных событий, описывающих последовательность двух экспе- риментов, соответствующих 51 и 33. Говоря, что эти два экспери- мента независимы, мы имеем в виду, что два события «первый исход есть ар> и «второй исход есть pft» стохастически независимы. Однако дело обстоит так только в том случае, когда вероятности на (31, 33) определены по правилу Р{К М = А%- [(4.1) Такое задание вероятностей правомерно1), потому что в сумме они дают единицу. Действительно, суммирование по всем элементарным событиям приводит к двойной сумме 22 ptqk, которая является произведением сумм 2а- и 2 qk. Условимся теперь, что слова «два независимых эксперимента» означают прямое произведение двух пространств элементарных собы- тий с вероятностями, определенными по правилу умножения (4.1). Это соглашение распространяется на понятие п последовательных .независимых экспериментов. Мы говорим о повторных независимых испытаниях, если прост- ранства элементарных событий, соответствующих каждому испы- танию (и вероятности на них), идентичны. Это соглашение дает нам право, например, для краткости гово- рить т независимых бросаний монеты» вместо «пространство элемен- тарных событий, состоящее из 2п точек, каждой из которых припи- сывается вероятность 2~V Заслуживает упоминания следующее интуитивно очевидное свой- ство независимых экспериментов. Пусть А—событие из 31, содер- жащее элементарные события ..., и [пусть В—событие из 33, содержащее элементарные события |3Л, |3/2, .... Тогда (Л, В) есть событие из (51, 33), которое состоит'из всех пар (as., х) Аналогично определяемые меры встречаются и вне теории вероятностей и называются произведением мер,
150 Гл. V. Условная вероятность. Стохастическая независимость и, очевидно, Р{(Л, B)}=22ps,^=(2ps.)(S^)=P{^P{B}. (4.2) Таким образом, правило умножения распространяется на произ- вольные события в пространствах-сомножителях. Эти рассуждения применимы к п независимым экспериментам и показывают, что если система из п событий Af, . . . , Ап такова, что Ah зависит только от k-го эксперимента, то события Af, ... , Ап взаимно независимы. Теория независимых экспериментов является самой простой аналитически и наиболее изученной частью теории вероятностей. Поэтому желательно, если это возможно, интерпретировать сложные эксперименты как последовательность бо- лее простых независимых экспериментов. Следующие примеры показывают слу- чаи, когда такая процедура возможна. Примеры, в) Перестановки. рассматривали п\ перестановок элементов «1, a2i ..., ап как элементарные события и приписывали каждому из них вероятность 1/п! То же самое пространство элементарных событий можно рассматривать как представляющее п—1 последовательных независимых экспе- риментов следующим образом. Запишем сначала а±. Первый эксперимент состоит в постановке а.2 перед а± или после него. После того как это сделано, имеется три места для а3, и второй эксперимент состоит в его выборе, уста- навливающем относительный порядок alt а2, и а3. Вообще, когда «4, ..., а^ расположены в некотором порядке, производим эксперимент с номером k, который состоит в выборе одного из &-[-1 мест для ak+1. Иначе говоря, мы имеем последовательность из п—1 экспериментов, k-й из которых имеет k-\-1 различных исходов (элементарных событий), имеющих вероятности 1/(&+ О- Эксперименты независимы, т. е. вероятности перемножаются. Каждая пере- становка из п элементов имеет вероятность (1/2) (1/3) .(1/п), что совпадает с первоначальным определением. г) Выбор без возвращения. Пусть «„)— генеральная совокупность. При выборе без возвращения при каждом испытании удаляется один элемент. После k испытаний остается п — k элементов и следующий выбор можно описать заданием номера v места, занимаемого выбранным элементом (v = l, 2,... п—k). Таким образом, выборка объема г без возвращения превращается в последовательность из г экспериментов, первый из которых имеет/г возмож- ных исходов, второй — п—1, третий — п — 2 и т. д. Мы припишем равные вероятности всем исходам отдельного эксперимента и постулируем независи- мость г экспериментов. Это равносильно приписыванию вероятности 1/(п)Л каждому элементарному событию, что соответствует определению случайного выбора. Заметим, что при п=100 и г — 3 выборка («13, п40, «81) означает выбор чисел 13, 39, 79 соответственно: в третьем эксперименте был выбран семьдесят девятый элемент из сокращенной совокупности из п — 2 элементов. (При первоначальной нумерации исходы третьего эксперимента зависели бы от исходов первых двух.) Мы видим, что понятие повторных независимых испытаний позволяет изучать выбор как последовательность независимых операций. ► § 5*). ПРИЛОЖЕНИЯ К ГЕНЕТИКЕ Теория наследственности, ведущая начало от Г. Менделя (1822— 1884), дает поучительную иллюстрацию применимости простых вероятностных моделей. Мы ограничимся рассмотрением наиболее *) Этот параграф посвящен специальным вопросам и может быть опущец прц первом чтении,
§ 5. Приложения ft генетике 151 простых задач. Биологические явления будут по необходимости описываться в весьма упрощенном виде, и мы сосредоточим внимание на таких фактах, которые относятся к построению математической модели. Наследование признаков зависит от специальных носителей, называемых генами. Все клетки тела, исключая половые клетки (гаметы), несут один и тот же набор генов. Надо отметить, что каж- дый ген в клетке представлен парой. Читатель может представить их себе как совокупность огромного числа шариков на коротких кусках нитей-хромосом. Хромосомы также входят в каждую клетку попар- но, и парные гены занимают одинаковое положение в парных хро- мосомах. В простейшем случае каждый ген отдельной пары может находиться в одной из двух форм (аллелей) А или а. Тогда можно образовать три различные пары, и в соответствии с этим организм имеет один из трех генотипов АА, Аа и аа (между парами Аа и аА различия нет). Например, горох несет пару генов, таких, что ген А обусловливает красную окраску цветка, а а — белую окрас- ку. Три генотипа соответствуют в этом случае красному, розовому и белому цветкам. Каждая пара генов определяет один наследственный признак, но большинство наблюдаемых свойств организма зависит от несколь- ких факторов. Для некоторых характеристик (таких, как цвет глаз или свойство быть левшой) преобладающим является влияние одной пары генов, и наблюдаемые в этом случае эффекты подчиня- ются законам Менделя. Другие характеристики, например рост, определяются совместным действием очень большого числа генов (см. пример гл. X, 5,в)). Здесь мы будем рассматривать генотипы и наследование лишь для одной пары генов; в этом случае возможны три генотипа А А, Аа и аа. Часто имеет место случай, когда для каж- дой пары генов существует N различных форм Ai, ... , AN и, следовательно, имеется М(М+1)/2 генотипов AiAi, AiA2, . . . , AnAn. С очевидными изменениями вся теория применима и в этом случае (см. задачу 27). Последующие вычисления применимы также к случаю, когда ген А является доминантным, а ген а — рецессив- ным. Это означает, что особи Аа имеют те же наблюдаемые свойст- ва, что и АА, так что влияние гена а проявляется лишь у особей аа. В природе встречаются все степени частичного доминирования. Типичными примерами частично рецессивных свойств является го- лубой цвет глаз, свойство быть левшой и т. д. Половые клетки (гаметы) образуются в результате расщепления и содержат только по одному гену каждой пары. Поэтому организмы чистых генотипов А А или аа (или гомозиготы) производят гаметы только одного вида, в то время как организмы А а (гибриды или гетерозиготы) производят в равном количестве гаметы А и а. Новый организм развивается из двух родительских гамет, от кото- рых он и получает свои гены. Поэтому в каждой паре генов один ген получен от матери, а другой — от отца; это позволяет устано-
152 Гл, V. Условная вероятность. Стохастическая независимость вить, какому из предков в каждом поколении, даже очень отдален- ном, принадлежит любой ген. Генотип потомка зависит от случайного процесса. При любых обстоятельствах каждый родительский ген может передаться с ве- роятностью 1/2, и последовательные испытания независимы. Иначе говоря, мы представляем генотипы п потомков как результат п независимых испытаний, каждое из которых эквивалентно бросанию пары монет. Например, при скрещивании особей АахАа могут поя- виться генотипы АА, Аа и аа с вероятностями, равными соответ- ственно 1/4, 1/2, 1/4. Скрещивание ААХаа может привести к появ- лению лишь особей Аа и т. п. Рассматривая популяцию в целом, мы представляем образова- ние родительской пары как результат второго случайного процесса. Будем исследовать лишь так называемое случайное скрещивание* которое определяется следующим условием: если случайно выбрать г особей в первом поколении, то их родители образуют случайную выборку с возвращением объема г из множества всех возможных родительских пар. Иначе говоря, каждого потомка можно рассмат- ривать как результат случайного выбора родителей, и все выборы взаимно независимы. Случайное скрещивание является идеализи- рованной моделью условий, которые преобладают во многих встре- чающихся в природе популяциях и в полевых экспериментах. Однако, если один угол поля засеян красным горохом, а другой белым, то пары одного типа будут скрещиваться чаще, чем это допускается гипотезой о случайности. Выбор с предпочтением (на- пример, если блондины предпочитают блондинок) также нарушает условия случайного скрещивания. Самоопыляющиеся растения и искусственное оплодотворение представляют собой полную противо- положность случайному скрещиванию. Некоторые системы со спе- циальными законами скрещивания будут в дальнейшем анализи- роваться математически, но все же основное внимание будет сосре- доточено на модели случайного скрещивания. Генотип потомка есть результат четырех независимых испытаний. Генотипы двух родителей можно выбрать 3-3 способами, их гены — 2-2 способами. К счастью, однако, можно объединить эти два выбора и описать процесс как двойной выбор следующим образом: отцовс- кий и материнский гены выбираются случайно и независимо один от другого из множества всех генов, которые несут мужские или женские особи родительской популяции. Допустим, что три генотипа АА, Аа и аа встречаются среди мужских и женских особей в одной и той же пропорции и : 2v : w. Предположим, что z/+2u+^=l, и назовем и, 2и и w частотами генотипов. Положим p=u-\~v, q=v-\-w. (5.1) Ясно, что число генов А относится к числу генов а как р : q, и, так как р+^=1, мы будем называть р и q частотами генов А и
_______________________________ § 5. При/кужения к генетике 153 При каждом из двух случайных выборов ген А появляется с ве- роятностью р, и в силу независимости этих выборов вероятность того, что потомок имеет генотип АА, равна /?-. Генотип Аа может появиться двумя способами, и вероятность этого события равна 2pq. Таким образом, если выполняется гипотеза о случайном скре- щивании, то потомок имеет один из генотипов АА, Аа или аа с вероятностями Ui=p-, 2vx=2pq, w±=q^ (5.2) соответственно. Примеры, а) Все родители типа Аа (гетерозиготы). В этом случае u=w=§, 2v=l и p=q=\!2. б) Родительские особи А А и аа смеша- ны в равном отношении; тогда u=w=\!2, и=0 и p=q=\/2. в) На- конец, и=ш=1/4, 2и=1/2; снова p=q= 1/2. Во всех трех случаях распределение генотипов потомков одно и то же: 1/4, 2ух=1/2, uii=l/4. ► Для лучшего понимания сущности соотношений (5.2) фикси- руем частоты генов р и q (/7+7=1) и рассмотрим все системы, для которых частоты генотипов и, 2v и w удовлетворяют условиям w+u=/7, v+w==q. Во всех системах распределение генотипов в первом поколении потомков дается той же формулой (5.2). Выделим частную систему, для которой и=р2, 2v=2pq, w=q2. (5.3) Рассмотрим теперь популяцию, в которой — как в примере в) — частоты трех генотипов и, v, w задаются соотношениями (5.3). В силу (5.2) эти частоты остаются неизменными для следующего поколения. Поэтому распределение генотипов вида (5.3) можно назвать стационарным или равновесным. Каждому отношению р : q отвечает стационарное распределение. В больших популяциях действительно наблюдаемые частоты трех генотипов должны быть близки к теоретическим вероятностям, задаваемым соотношениями (5.2) *). Достопримечательно, что это распределение является стационарным при любых отношениях и: 2v: w в родительском поколении. Иначе говоря, если наблюдае- мые частоты в точности совпадают с вычисленными вероятностями, то распределение генотипов уже в первом поколении потомков ста- новится стационарным и повторяется без изменений в последующих поколениях. На практике возможны отклонения, но для больших популяций мы можем сказать: каков бы ни был состав родительской х) Без этого наша вероятностная модель оказалась бы неприменимой. Данное утверждение можно уточнить, опираясь на закон больших чисел и центральную предельную теорему, которые позволяют оценить эффект случайных флуктуаций.
154 Гл. V. Условная вероятность. Стохастическая независимость популяции, при гипотезе о случайном скрещивании уже в первом по- колении получается приблизительно стационарное распределение генотипов с неизменными частотами генов. Начиная со второго по- коления не существует тенденций к систематическим изменениям; система становится генетически устойчивой уже в первом поколении. Этот факт впервые отметил Г. Харди г), который тем самым преодо- лел некоторые трудности, связанные с применением законов Мен- деля. Отсюда, в частности, вытекает, что при случайном скрещи- вании частоты трех генотипов должны установиться в отношении ръ : 2pq : q2. Это обстоятельство в свою очередь может быть исполь- зовано для проверки гипотезы о случайном скрещивании. Харди также отмечал, что следует сделать ударение на слове «приблизительно». Даже для стационарного распределения мы долж- ны ожидать от поколения к поколению небольших изменений, которые приводят к следующей картине. Какова бы ни была роди- тельская популяция, после случайного скрещивания мы уже в пер- вом поколении приходим к стационарному распределению (5.3). В дальнейшем не существует тенденций к систематическим измене- ниям, однако частоты генов р и q подвержены случайным колеба- ниям от поколения к поколению и генетическая структура популя- ций медленно, но меняется. Не существует никаких сил, стремя- щихся восстановить начальные частоты. Наоборот, наша упрощенная модель приводит к заключению (см. пример гл. XV, 2, и)), что в ограниченных популяциях в конечном счете один из двух генов исчезает, так что в конечном счете популяция будет состоять лишь из чистых генотипов А А или аа. В природе этот процесс происхо- дит не всегда, так как мутации, селекция и другие эффекты приводят к образованию новых генов. Часто считают, что из теорем Харди вытекает строгая устойчи- вость в течение неограниченного времени. Обычной ошибкой явля- ется убеждение в том, что закон больших чисел действует как наде- ленная памятью сила, стремящаяся вернуть систему к исходному состоянию; представления такого рода породили много неправиль- ных заключений. Отметим, что закон Харди неприменим к распре- делению двух пар генов (например, обусловливающих голубой цвет глаз и свойство быть левшой) с девятью генотипами ААВВ, ААВЬ, , aabb. Здесь все еще имеется тенденция к установлению ста- ционарного распределения, но это распределение не достигается в первом поколении (см. задачу 31). l) Hardy G. Н., Mendelian proportions in a mixed population, Letter to the Editor, Science, N. S.? 28 (1908), 49—50. Используя терминологию гл. IX и XV, мы можем описать ситуацию следующим образом. Частоты трех генотипов в п-м поколении являются случайными величинами, математические ожидания которых определяются по формуле (5.2) и не зависят от п. Действительные значения частот меняются от поколения к поколению и образуют марковский случайный процесс,
§ 6. Признаки, сцепленные с полом 155 § 6*). ПРИЗНАКИ, СЦЕПЛЕННЫЕ С ПОЛОМ В начале предыдущего параграфа отмечалось, что гены являются составными частями хромосом, которые содержатся в клетках парами и передаются как единое целое, т. е. так, что все гены одной и той же хромосомы постоянно соединены вместе * * х). Таким образом, наша схема генной передачи наследственности применима также к хромосомам, рассматриваемым как единицы наследственности. Пол определяется парой хромосом; для женщин это XX, для муж- чин XY. Материнский организм всегда передает Х-хромосому, и пол потомка определяется хромосомой, полученной от отца. Таким образом, мужские и женские гаметы производятся в равном коли- честве. Разница в частотах рождения мальчиков и девочек объяс- няется тем, что они имеют неодинаковые шансы выжить в предродо- вой период. Мы уже говорили, что как гены, так и хромосомы встречаются парами, однако имеются исключения, связанные с тем, что гены, расположенные в Х-хромосоме, не имеют парных им генов в У-хро- мосоме. Женщины имеют две Х-хромосомы и, следовательно, двой- ной набор генов этих хромосом, но мужчины имеют лишь одинарный набор таких генов. Типичными генами, сцепленными с полом, яв- ляются гены, обусловливающие дальтонизм и гемофилию. По отно- шению к ним женщины могут иметь три генотипа АА, Аа и аа, а мужчины, которые обладают лишь одним геном — два генотипа А и а. Заметим, что сын всегда наследует отцовскую У-хромосому, так что сцепленные с полом признаки не могут передаваться от отца к сыну. Однако они могут передаваться от отца к дочери, а от нее — к внуку. Применим к этой ситуации методы предыдущего параграфа. Вновь предположим, что скрещивание происходит случайным об- разом, и будем считать, что частоты генотипов АА, Аа и аа среди особей женского пола равны соответственно и, 2v и w. Как и ра- нее, положим p=u+v, q=v+w. Частоты мужских генотипов А и а обозначим через р' и qr (р' +qf = 1). Тогда р и р' будут частотами генов А среди особей мужского и женского пола соответственно. Вероятности потомку женского пола иметь генотипы АА, Аа, аа будем обозначать и±, 2v1} щ соответственно; аналогичные вероят- ности для мужских генотипов А и а обозначим р[, q[. Потомок мужского пола получает свою Х-хромосому от матери, и, следова- тельно, Pi=p, q’e=q- (6.1) *) Этот параграф посвящен специальным вопросам и может быть опущен при первом чтении. х) Эта картина несколько осложняется явлениями разрывов и рекомбинаций хромосом (см, задачу 12 гл, II, 10),
156 Гл. V. Условная вероятность. Стохастическая независимость Для трех женских генотипов, повторяя рассуждения § 5, полу- чаем ^i—pp', 2v1=pq'+qp', w^qq', (6.2) откуда pi=Wi+^i=(l/2) (р+р')> q^Vr+w^(1/2) (q+q'). (6.3) Это означает, что среди потомков мужского пола гены А и а встре- чаются приблизительно с теми же частотами р и q, что и в материн- ской популяции; соответствующие частоты для потомков женского пола равны примерно р± и q± или среднему арифметическому частот генов А и а в отцовской и материнской популяции. Мы наблюдаем здесь тенденцию к сближению частот генов. Действительно, из (6.1) и (6.3) следует, что Pl—Pi=(l/2)(p—р'), 91—9!=(1/2)(<7—/), (6.4) и, таким образом, при случайном скрещивании разница в частотах генов А и а среди мужчин и женщин уже в первом поколении сокращается примерно в два раза. Однако эта разница полностью не исчезает, и существует тенденция к дальнейшему сближению. В отличие от ситуации, описываемой законом Харди, распределение генотипов в первом поколении не является стационарным. Однако от поколения к поколению можно проследить за систематической компонентой, пренебрегая случайными флуктуациями и отождеств- ляя теоретические вероятности (6.2) и (6.3) с реальными частотами в первом поколении особей женского пола х). Аналогично для второго поколения получим Рз = (1/2) (Pi + Р1) = (3/4) Р 4- (1/4) р’, 5 ^ = (1/2)^+ 71) = (3/4) 7+(1/4) 9', и, конечно, p2 = Pt и = Продолжая рассуждать подобным образом, получим общие выражения для вероятностей рп и qn, характеризующих распределение генов А и а среди особей жен- ского пола в n-м поколении. Положим <х = (1/3) (2р + //), р = (1/3) (2q + q')\ (6.6) тогда P» = (Pn-i4-Pn-i)/2 = a + (—l)"(p—/?')/(3-2"), 9п = (<7п-1 + ^-1)/2 = ₽4-(-1)п(9-9')/(3-2'!) 1 ' 1 и Рп = Рп-i, q'n = qn-i- Следовательно, Р„^«, Р«—qn~*₽> Яп—(6-8) х) Используя терминологию, введенную в примечании на с. 154, мы можем интерпретировать рп и qn как математические ожидания частот генов в n-м поколении особей женского пола. При такой интерпретации формулы для рп и qn становятся уже не приближенными,, а точными.
§ 7. Селекция 157 Частоты генотипов в популяции особей женского пола, согласно (6.2), равны 4n=Pn-tP'n-i, ^„^p^q^+q^p^, wn=qn.1q'n-1. (6.9) Отсюда следует, что цп-нх2, 2г\->2оф, &>n->P2. (6.10) (Отметим, что а+р = 1). Эти формулы показывают, что вся система от поколения к поко- лению стремится к устойчивому состоянию, в котором мужские ге- нотипы А и а появляются с частотами а и Р, а женские генотипы АА, Аа, аа с частотами а2, 2оф, Р2 соответственно. На практике приближенное равенство может быть использовано уже после тре- тьего или четвертого поколения. Разумеется, на эту зависимость мо- гут накладываться небольшие случайные флуктуации, но в целом она правильно отражает основную тенденцию. Главный вывод из всего сказанного состоит в следующем: мож- но ожидать, что при случайном скрещивании генотипы А и а среди особей мужского пола и генотипы АА, Аа и аа среди особей жен- ского пола должны встречаться приблизительно с частотами а, [3, а2, 2сф, р? соответственно, причем а+Р = 1. Приложение. Многие гены, сцепленные с полом, например ген дальтонизма, являются рецессивными и вызывают дефекты. Пусть а—такой ген. Тогда дефект имеют все мужчины а и женщины аа. Женщины типа Аа дефекта не имеют, но могут передавать его своим потомкам. Поэтому мы можем ожидать, что рецессивный сцепленный с полом дефект, который встречается у мужчин с частотой а, у женщин будет встречаться с частотой а2. Если один мужчина из ста — дальтоник, то женщина с этим недостатком встречается одна на 10 000. § 7*). СЕЛЕКЦИЯ В качестве типичного примера влияния селекции мы иссле- дуем случай, когда особи аа не могут размножаться. Это может случиться, если гены а являются рецессивными летальными, так ®то появившиеся на свет особи аа сразу же умирают. Кроме того, этого можно добиться искусственным изменением условий размно- жения или законом, запрещающим особям аа участвовать в скре- щивании. Предположим, что гипотеза о случайном скрещивании приме- нима к совокупности всех особей АА и Аа, но особи аа не участ- вуют в скрещивании. Пусть частоты генотипов АА, Аа и аа в пол- ной популяции равны и, 2v и w соответственно. Аналогичные час- *) Этот параграф посвящен специальным вопросам и может быть опущен при первом чтении.
158 Гл. V. Условная вербятнбсть. Стохастическая независимость тоты в популяции родителей равны и*—и! —w), 2v* =2v/(1—w), w*=0. (7.1) В дальнейшем можно рассуждать, как в § 5, используя, однако, вместо величин и, 2v, w величины (7.1). Тогда соотношения (5.1) заменяются соотношениями р= (u-\-v)l —w), q=v/(l—w). (7.2) Вероятности трех генотипов в первом поколении снова определя- ются формулами (5.2), т. е. Ui=p?, 2v±-=2pq и wr=q\ Как и ранее, для того чтобы проследить за систематическими изменениями от поколения к поколению, мы должны заменить и, v, w на Vf, и таким образом получим вероятности и$, w2 ге- нотипов во втором поколении потомков и т. д. В общем случае, исхо- дя из (7.2), имеем Pn = (un + v„)/(l—wn), qn = vn/(l—wn) (7.3) и ^n+i = Рп> %Vn+i — 2pnqn, Wn+i — Qn’ (7-4) Сопоставляя (7.3) и (7.4), найдем, что /’„+i = K+i + ^+i)/(1— wn+i) = PnlO— $) = VO+<?„) (7.5) И аналогично <7»+i = у«+1/(1 ~wn+i) = 7Л1 + <?„)• (7-6) Используя (7.6), нетрудно найти qn в явном виде. Действительно, ^1 = 1+^» (7.7) И отсюда последовательно 9Г1 = 1 + <7-1» 7Г1 = 2 + 7"1, /7 ох ^1 = 3 + 9-\ ..., <7п1=» + Г\ 1 ’ или qn = q/(l+nq), wn+i = [q/0+qn)]2. (7.9) Мы видим, что генотип, не способный к воспроизведению (или нежелательный), постепенно исчезает, но процесс этот крайне мед- ленный. При 7=0,1 требуется десять поколений, чтобы наполови- ну сократить частоту генов а; при этом частота особей, имеющих генотип аа, изменяется с 1 до 0,25%. (Если ген а сцеплен с полом, то процесс вымирания происходит значительно быстрее, как пока- зано в задаче 29; обобщенной схеме селекции посвящена задача 30 х)-) х) Дальнейший анализ разнообразных евгенических эффектов (которые часто отличны от того, что думают горячие сторонники законов о стерилизации) можно найти в книге Dahlberg G.2 Mathematical methods for population genetics, New York and Basel, 1948,
$ 8. Задача 159 § 8. ЗАДАЧИ 1. Бросаются три игральные кости. Какова вероятность того, что на одной из них выпадет единица, если на всех трех костях выпали разные грани? 2. Известно, что при бросании десяти игральных костей выпала хотя она единица. Какова вероятность р того, что выпало две или более единиц? 3. Бридж, При сдаче карт для игры в бридж игрок «Запад» не получил ни одного туза. Какова вероятность того, что его партнер а) не имеет тузов, б) имеет не менее двух тузов? Проверить результат, не используя формулу условной ве- роятности. 4. Бридж, Игроки «Север» и «Юг» имеют вместе десять козырей (козыри — карты определенной масти), а) Найти вероятность, что все три остальных козыря находятся у одного игрока (т. е. либо игрок «Восток», либо игрок «Запад» не име- ют козырей), б) Известно, что среди трех оставшихся козырей имеется король» Найти вероятность того, что он «не защищен» (т, е, один игрок имеет короля, а другой — два остальных козыря). 5. Решить задачу о ключах (пример гл. II, 7, б)) при помощи условных веро- ятностей, используя метод примера 2, а). 6. На заводе, изготовляющем болты, на долю машин А, В и С приходится соответственно 25, 35 и 40% всех изделий. В их продукции брак составляет соот- ветственно 5, 4 и 2%. Случайно выбранный из продукции болт оказался дефект- ным. Каковы вероятности того, что он был изготовлен на машине Л? на маши- не В? на машине С? 7. Предположим, что 5 мужин из 100 и 25 женщин из 10 000 являются даль- тониками. Наугад выбранное лицо страдает дальтонизмом. Какова вероятность того, что это мужчина? (Считать, что мужчин и женщин одинаковое число.) 8. Семь шаров случайным образом распределяются по семи ящикам. Известно, что ровно два ящика остались пустыми. Показать, что вероятность (условная) того, что в одном из ящиков окажется три шара, равна 1/4. Проверить это чис- ленно, используя табл. 1 из гл. II, 5. 9. Игральная кость бросается до тех пор, пока не выпадет единица. Предпо- лагая, что при первом испытании единица не выпала, найти вероятность того, что потребуется не менее трех бросаний. 10. Продолжение. Допустим, что число испытаний п четно. Какова вероят- ность того, что п=2? 11. Пусть1) вероятность рп того, что в семье ровно п детей,- равна арп при п^1, и ро = 1—аР (1 +р+р24"• • •)• Предположим, что все комбинации полов п детей равновероятны. Показать, что при /г^1 вероятность того, что в семье ровно k мальчиков, равна —p)k+1, 12. Продолжение. Пусть известно, что в семье есть по меньшей мере один мальчик. Какова вероятность того, что в ней не менее двух мальчиков? 13. Игральная кость А имеет четыре красных и две белых грани, а кость В — две красных и четыре белых. Один раз бросается монета. Если выпал герб, то все время бросается только кость А, если решетка — только кость В. а) Показать, что вероятность получить красную грань в любом испытании равна 1/2. б) Из- вестно, что первые два бросания кости дали красные грани. Найти вероятность того, что третье бросание также даст красную грань, в) Первые п испытаний дали красные грани. Какова вероятность того, что бросалась кость А? г) Какой урно- вой модели эквивалентна эта игра? 14. Пусть в примере 2, а) хп—условная вероятность того, что выиграв- ший n-ю партию выиграет игру в целом при условии, что игра не заканчи- вается /?-й партией; пусть уп и гп—вероятности выиграть игру в целом для проигравшего и свободного в n-й партии игроков соответственно, а) Пока- 1) Согласно Лотка, американская семейная статистика удовлетворяет этой гипотезе с р=0,7358. См. Lotka A. J. Theorie analytique des associations biologi- ques, v, 2, Actualites scientifiques et industrielles, No, 780(1939), Paris, Hermann et Cie,
160 Гл. V. Условная вероятность. Стохастическая независимость зать, что х„= l/2-f-(l/2) yn+i, yn=0-ft)zn+i, z„=(l/2) x„+i. (*) б) Непосредственно рассматривая пространство элементарных событий, пока- зать, что в действительности хп — х, уп~у, zn=z не зависят от п. в) Дока- зать, что вероятность того, что игрок а выиграет в целом, равна 5/14 (в соот- ветствии с задачей 5 гл. I, 8). г) Показать, что хп = 4/7, z/n=l/7, zn = %!7 есть единственное ограниченное решение системы (*). 15. Пусть события Alt А2, ..., Ап независимы и Р {Ak} = pk. Найти вероятность р того, что ни одно из этих событий не осуществится. 16. Продолжение. Показать, что всегда р^ехр(—р^. 17. Продолжение. Из неравенства Бонферрони (5.7) гл. IV вывести, что вероятность одновременного осуществления k или более событий из Alt . *., Ап меньше чем (pi+... 18. К урновой схеме Пойа, пример 2, в). Какова вероятность того, что первый шар был черным, если второй шар оказался черным? 19. К урновой схеме Пойа, пример 2, в). Используя индукцию, показать, что вероятность извлечения черного шара при любом испытании равна Ы (ЬА~г). 20. Продолжение. Доказать по индукции следующее утверждение: для любых m<ji вероятности того, что /n-е и n-е испытания дадут комбинации (черный, чер- ный) или (черный, красный), равны соответственно b (Ь с) ______________Ьг_______ (b-J-r) (Z?4-r+^)9 (^ + г) (& + r+c)* Обобщить на случай более чем двух испытаний. 21. Симметрия по времени в схеме Пойа. Пусть каждая из букв А и В обоз- начает красный или черный цвет (так что АВ можег быть любой из четырех ком- бинаций). Показать, что вероятность цвета А при n-м испытании при условии, что m-е испытание дало цвет В, равна вероятности цвета А при m-м испытании при условии, что n-е испытание дало цвет В. 22. Пусть в схеме Пойа pk(ri)— вероятность извлечения k черных шаров в первых п испытаниях. Доказать рекуррентное соотношение / । г/ ч r+ (n — k) с . . . bA-(k— 1) с Pk (п + О — Pk (п) -тгг—i—~~ -}~Pk- i ;——> i / г/гл / L rR 1\ j ь — гА~ПС Где Р-1(н) принимается равным нулю. Использовать это соотношение для нового доказательства формулы (2.5). 23. Распределение Пойа. В (2.4) положим 6/(&4-г)=р, г/(/>4-г)=9, с/(&+г)=7. (8.1) Показать, что выражение ("Г) П’У* « \ / \ "2 / \ П } имеет смысл для произвольных (не обязательно рациональных) постоянных р > 0, q > 0, у > 0, таких, что p-\-q = 1. Проверить, что рП1П > 0 и что <v = 0 Иначе говоря, (8.2) определяет распределение вероятностей на множестве целых чисел 0, 1, ..., п. Это распределение называется распределением Пойа. 24. Предельная форма распределения Пойа. Если п —> оо, р —у 0, у —0 так, что пр—> пу—>р~х, то при фиксированном nj щ ){~р) 1т+р) ‘
§8. Задачи 161 Проверить это и доказать, что при фиксированных Аир члены в правой части этого соотношения дают в сумме единицу. (Правая часть определяет так называемое отрицательное биномиальное распределение; см. гл. VI, 8 и задачу 37 гл. VI, 9). 25. Записать формулу (11.8) гл. II через условные вероятности. 26. Попарно независимые события, не являющиеся взаимно независимыми. Бросаются две игральные кости. Рассмотрим три события: А — «на первой кости выпало нечетное число очков», В — «на второй кости выпало нечетное число очков» и С — «сумма очков на обеих костях нечетна (на одной кости четное число очков, на другой — нечетное)». Если все 36 элементарных событий равновероят- ны, то любые два из событий А, В и С независимы. Вероятность каждого равна 1/2, Однако все три события не могут осуществиться одновременно. Приложения к биологии 27. Обобщить результаты § 5 на случай, когда каждый ген представлен k формами Alf А2, ..., Akf так что имеются k(k-]-l)/2 генотипов вместо трех (множественные аллели). Братско-сестринское скрещивание. Из некоторой популяции, в которой генотипы А А, Аа, аа встречаются с частотами и, 2v и w соответственно, случай- ным образом выбирается пара родителей. С их потомством повторяется та же про- цедура. Найти вероятности того, что оба родителя в первом, втором, третьем поко- лениях потомков имеют генотип АА (см. примеры гл. XV,2,к) и гл. XVI,4,б)). 29. Селекция. Пусть а — рецессивный сцепленный с полом ген. Предполо- жим, что процесс селекции делает невозможным участие в скрещивании муж- ских особей, обладающих геном а. Показать, что если частоты генотипов АА, Аа, аа среди женских особей начального поколения равны и, 2v, w, то для жен- ских особей в первом поколении потомков 2vy=vA~w, tax=O, и, следо- вательно, Pi=p+(l/2) q, q1=(l/2)q. Короче говоря, частота гена а среди женских особей уменьшается вдвое. 30. Задачу о селекции § 7 можно обобщить, предполагая, что гибнет лишь некоторая часть А (0<А^1) особей аа. Показать, что р— (t/+a)/(l—Ata), (7=[tH- (1—A)ta]/(1—Ata). В этом более общем случае вместо (7.3) можно записать Pn+i — PnK)-—А^п), <7/2+1= (1—А<?„)/(1—А<?п) qn* (Общее решение этих уравнений, по-видимому, неизвестно.) 31. Рассмотрим одновременно две пары генов с возможными формами (А, а) и (В, Ь). Любая особь передает своим прямым потокам один ген из каждой пары, и мы предположим, что каждая из четырех возможных ком- бинаций имеет вероятность 1/4 (это предположение справедливо лишь в том случае, когда разные гены принадлежат разным хромосомам, иначе имеет место строгая зависимость). Существует девять генотипов, и мы обозначим их частоты в популяции родителей через UААВВ, UааВВ, UAAbbt Uaabb, 2UAaBB, 2U Aabb* 2UAABbi aaBb> 4UAaBb- Положим Pa в = UAABB + U A ABb + U AaB В + U AaBb > PAb = U AAbb + U Aabb + U AABb + U AaBb> PaB = UaaBB+ U ааВЬ + U AaB В + U AaBb > Pab = U aabb + U Aabb + U aaBb + U AaBb* Найти частоты, характеризующие распределение генотипов в первом по- колении потомков, Показать, что Рав = Рлв — 6, Рдь~ РАъЛ-^t РаВ = РаВ~]~$) Pat) — Pab где 2b — pABpab—рАЬРаВ‘ Стационарное распределение определяется систе- мой равенств PAB — ^^PAb+^ и т. д. 6 № 221
162 Гл. V. Условная вероятность. Стохастическая независимость (Отметим, что закон Харди неприменим} распределение меняется от поколе* ния к поколению.) 32. Предположим, что частоты генотипов в популяции равны и = р\ 2v = 2pq, w = q* 2. Известно, что некто имеет генотип Аа. Тогда вероятность того, что генотип его брата тоже Аа, равна (1-|-рд)/2. Замечание. Последующие задачи очень близки. Они связаны с понятием степени родства1). Каждая задача продолжает предыдущую. Предположение о случайном скрещивании и обозначения § 5 сохраняются. Мы имеем здесь дело о частным случаем цепей Маркова (см. гл. XV). Использование матриц упрощает запись. 33. Занумеруем генотипы А А, Аа и аа числами 1, 2, 3 соответственно. Пусть pik (i, k=\, 2, 3) — условная вероятность того, что особь имеет гено- тип k при условии, что одна из родительских особей (мужская или женская) имеет генотип i. Найти все девять вероятностей р^, предполагая, что другая родительская особь имеет один из генотипов 1, 2, 3 с вероятностями р2, 2pq и соответственно. 34. Показать, что рц^ является в то же время условной вероятностью того, что родительская особь имеет генотип k при условии, что заданный потомок первого поколения имеет генотип i. 35. Доказать, что условная вероятность того, что внук (дед) имеет гено- тип k при условии, что дед (внук) имеет генотип i, определяется соотношением Pik — PiiPik’\~Pi2p2kJrPi3Pzk' (Матрица (р^) является квадратом матрицы (р/^).) 36 2). Показать, что ри? является также условной вероятностью того, что человек имеет генотип k при условии, что его единокровный (или едино- утробный) брат имеет генотип i. 37. Показать, что условная вероятность того, что некто имеет генотип k при условии, что определенный его прадед (правнук) имеет генотип t, дается формулой РШ = PtiLpik ~Yp(?2P2k -VPtti Pzk — PiiPi^ -\rPi2P2k + PizPzk* (Матрица (p^)—куб матрицы (pik). Это придает точный смысл понятию сте- пени родства.) 38. Рассмотрим более общий случай, а именно определим вероятности ри? того, что потомок в n-м поколении имеет генотип k, если определенный пре- док имеет генотип i. Доказать по индукции, что являются элементами следующей матрицы: Р2 + Р(Я—Р)/2п р2 — p2^2n-l 2pq+q (q—p)/2n~l 2pq + (i—^pq)/2n 2pq + P (p—q)/2n~l q2 — q2l2n~i q2+q (p—q№n q2+pq/^n~1 (Отсюда следует, что влияние предка убывает от поколения к поколению вдвое.) 39. Рассмотреть задачу 36, заменив единокровного (или единоутробного) брата родным братом. Показать, что соответствующая матрица имеет вид (1/4) (1 + р)2 (1/2)9(1+р) (1/4) </2 (1/4) р (1+р) (1/4) (14-р?)] (1/4) q(\-\-q) Ш р (\-\-q) (1/4) (14-9)2 40. Показать, что степень родства между дядей и племянником такая же, как между внуком и дедом, *) Относительно этого понятия см. задачи 33, 35 и 37.— Прим, перев. 2) Первое издание книги содержало ошибку: слово «брат» (два общих роди- теля) использовалось там, где подразумевался единокровный или единоутробный брат (один общий родитель), Это было указано в статье Li Сч Sacks L., Biometry ca, 40 (1954), 347-360,
1ЛАВА VI БИНОМИАЛЬНОЕ РАСПРЕДЕЛЕНИЕ И РАСПРЕДЕЛЕНИЕ ПУАССОНА § 1. ИСПЫТАНИЯ БЕРНУЛЛИ X) Повторные независимые испытания называются испытаниями Бернулли, если каждое испытание имеет только два возможных ис- хода и вероятности исходов остаются неизменными для всех испыта- ний. Обычно эти две вероятности обозначают через р и q, и исход с вероятностью р называют «успехом» У, а второй — «неудачей» Н. Ясно, что р и q должны быть неотрицательными и р+<7=1. (1.1) Пространство элементарных событий каждого отдельного испы- тания состоит из двух точек У нН. Пространство элементарных собы- тий п испытаний Бернулли содержит 2п точек или последовательно- стей из п символов У и Н\ каждая точка представляет собой один возможный исход составного испытания. Поскольку испытания не- зависимы, вероятности перемножаются. Иначе говоря, вероятность любой конкретной последовательности есть произведение, получен- ное при замене символов У и Н на р uq соответственно. Таким обра- зом, Р{(УУНУН . . . HHy)}=ppqpq. . .qqp. Примеры. Наиболее известным примером испытаний Бернулли являются последовательные бросания правильной, или симметрич- ной, монеты; здесь p=q=l/2. Если монета несимметрична, то мы по-прежнему считаем последовательные бросания независимыми и тем самым получаем модель испытаний Бернулли, в которой веро- ятность успеха может быть произвольной. Повторные случайные извлечения из урны с одним и тем же набором шаров представ- ляют собой испытания Бернулли. Испытания Бернулли возникают и при более сложных экспериментах, если мы не будем различать несколько возможных исходов, а опишем каждый результат как А или не-Л. Следовательно, в случае бросаний правильной кости различие между появлением единицы (У) и появлением не еди- ницы (Н) приводит к испытаниям Бернулли с /?=1/6, в то время как различие мёжду выпадением четного и нечетного числа очков приводит к испытаниям Бернулли с /?=1/2. Если кость несимметрич- на, то последовательные бросания все же образуют испытания Бер- х) Яков Бернулли (1654—1705). Его основная работа Ars conjectandi была опубликована в 1713 г, 6*
164 Гл. VI. Биномиальное распределение и распределение Пуассона нулли, но соответствующие вероятности р изменяются. Десятка, валет, дама, король и туз одной масти в покере или две единицы при бросании кости могут представлять собой успех; называя все остальные исходы неудачей, получаем испытания Бернулли с р= = 1/649 740 и р=1/36 соответственно. Упрощения такого типа обыч- но используются в статистических приложениях. Например, при массовом производстве прокладок они могут различаться по тол- щине, однако при проверке классифицируются как годные (У) или бракованные (Н) в зависимости от того, находится их толщина в заданных границах или нет. ► Схема испытаний Бернулли — это теоретическая модель, и толь- ко опыт может показать, подходит ли она для описания конкрет- ных наблюдений. Предположение о том, что последовательные бро- сания монеты соответствуют схеме Бернулли, подтверждается экс- периментально. Философ К. Марбе1) разделяет мнение несведующих людей, считающих, что после семнадцати последовательных выпа- дений герба появление решетки становится более вероятным. Это убеждение возникает не из-за несовершенства реальных монет, а из-за того, что природа наделяется памятью, или — в нашей тер- минологии — отрицается стохастическая независимость последова- тельных испытаний. Теория Марбе не может быть опровергнута ло- гически, но отвергается потому, что она не подтверждается эмпи- рически. При проведении выборок, при промышленном контроле качества и т. д. схема испытаний Бернулли представляет собой идеальную модель, хотя никогда полностью не соответствует действительно- сти. Так, в приведенном выше примере о производстве прокладок существует много причин, по которым выпуск продукции не укла- дывается в схему Бернулли. Машины меняются, поэтому вероят- ности не остаются постоянными; в работе машин есть некоторое по- стоянство и, следовательно, появление длинных серий отклонений похожего типа более вероятно, чем если бы исходы были действи- тельно независимыми. Однако с точки зрения контроля качества желательно, чтобы этот процесс соответствовал схеме Бернулли, и важно то, что в определенных границах этого можно добиться. Тогда цель текущего контроля — обнаружить на ранней стадии значительные отклонения от идеальной схемы, указывающие на предстоящие неприятности. § 2. БИНОМИАЛЬНОЕ РАСПРЕДЕЛЕНИЕ Часто нас интересует не порядок появления успехов в последо- вательности п испытаний Бернулли, а их общее число. Число успе- хов может быть равно 0, 1,. . .п, и первая задача заключается в на- я) МагЬе К., Die Gleichformigkeit in der Welt, Munchen, 1916. Теория Марбе получила широкое распространение; ее наиболее известным противником был Мизес»
§2. Биномиальное распределение 165 хождении соответствующих вероятностей. Событие «п испытаний закончились k успехами и п—k неудачами» содержит столько эле- ментарных событий, сколько существует способов размещения k букв на п местах. Иначе говоря, это событие содержит точек и по определению каждая точка имеет вероятность pkqn~k. Тем са- мым доказана следующая теорема. Теорема. Пусть b (k\ п, р) — вероятность того, что п испытаний Бернулли с вероятностями успеха р и неудачи q=l—р закончились k успехами и п—k неудачами. Тогда b(k\ п, р) = pkqn~k. (2.1) В частности, qn есть вероятность того, что успехов не будет, а вероятность того, что будет хотя бы один успех, равна 1 — qn. |> Будем рассматривать р как постоянную и обозначим число ус- пехов в п испытаниях через Sn; тогда b(k\ п, р)=Р {Sn=&}. Соглас- но общей терминологии, Sn есть случайная величина, а функция (2.1) является «распределением» этой случайной величины; будем называть это распределение биномиальным. Слово биномиальное отражает тот факт, что (2.1) представляет собой &-й член биноми- ального разложения (q+p)n- Из этого замечания вытекает, что 6(0; п, p)+b(l; п, р)+. . .+b(n; п, р) = (q+p)n=l, а это и требуется по определению вероятности. Биномиальное рас- пределение табулировано х). Примеры, а) Данные Уэлдона о бросании костей. Предполо- жим, что эксперимент состоит в бросании 12 костей и под «успе- хом» для каждой кости понимается выпадение шестерки или пятер- ки. Для правильной кости вероятность успеха равна р=1/3 и число успехов должно подчиняться биномиальному распределению b(k\ 12, 1/3). В табл. 1 приведены эти вероятности с соответствующими средними частотами, вычисленными по результатам 26 306 прове- денных экспериментов. Согласование кажется хорошим, но на са- мом деле для столь большого числа опытов оно оказывается очень плохим. Обычно статистики судят о степени согласования с помо- щью критерия %2. Согласно этому критерию, для правильной кости столь большие отклонения, как наблюденные, осуществляются в среднем один раз в 10 000 экспериментах. Следовательно, естест- г) Для п^50 см. Tables of the binomial probability distribution, Applied Mathematics Series National Bureau of Standards, 6 (1950). Для 50^/1^100 смй Romig H. C., 50—100 Binomial tables, New York, John Wiley and Sons, 1953- Для более широкого интервала значений п см. Tables of the cumulative binomial probability distribution, Harvard Computation Laboratory, 1955; Tables of the cumulative binomial probabilities, Ordnance Corps, ORDP 20-11, 1952. [См. также Большей Л. H., Смирнов Н. В, Таблицы математической статистики,— 2-е изд,— М,: Наука2 1983*— Перев,J
166 Гл. VI. Биномиальное распределение и распределение Пуассона венно предположить, что кости были несимметричны. Полученным наблюдениям соответствовала бы асимметрия, при которой веро- ятность успеха равна р=0,3377х). Таблица 1 Данные Уэлдона о бросании костей k b (k; 12 1/3) Наблюденная частота B(k‘, 12, 0,3377) 0 0,007 707 0,007 033 0,007 123 1 0,046 244 0,043 678 0,043 584 2 0,127 171 0,124 116 0,122 225 3 0,211 952 0,208 127 0,207 736 4 0,238 446 0,232 418 0,238 324 5 0,190 757 0,197 445 0,194 429 6 0,111 275 0,116 589 0,115 660 7 0,047 689 0,050 597 0,050 549 8 0,014 903 0,015 320 0,016 109 9 0,003 312 0,003 991 0,003 650 10 0,000 497 0,000 532 0,000 558 11 0,000 045 0,000 152 0,000 052 12 0,000 002 0,000 000 0,000 002 б) В § 4 гл. IV нам встречалось биномиальное распределение в задаче об угадывании карт, и в столбцах Ьт табл. 3 были приведе- ны члены этого распределения для п=3, 4, 5, 6, 10 и р=п~\ В за- даче о размещении (пример гл. II, 4, в)) мы пришли к другому част- ному случаю биномиального распределения с р—п~\ в) Сколько испытаний с р=0,01 нужно провести, чтобы вероят- ность хотя бы одного успеха была не меньше 1/2? Здесь мы ищем наименьшее целое число /г, для которого 1—(0,99)п^1/2, или —п log (0,99)^log 2; следовательно п>70. г) Задача о снабжении энергией. Предположим, что п=10 ра- бочих должны время от времени использовать электрическую энер- гию, и нас интересует ожидаемая общая нагрузка. При грубом приближении считаем, что в течение любого заданного промежутка времени каждому рабочему с одной и той же вероятностью р тре- буется единица энергии. Если рабочие действуют независимо друг от друга, то вероятность того, что одновременно ровно k рабочим потребуется энергия, равна b(k; п, р). Если каждый рабочий ис- пользует электроэнергию в среднем 12 минут в час, то следует по* дожить р=1/5. Тогда вероятность того, что одновременно не менее семи рабочим потребуется электроэнергия, равна 6(7; 10, 0,2)+Л. i *) Fischer R. A., Statistical methods for research workers, Edinburgh — jLon^ don, 1932. [Имеется перевод: Фишер P, Э, Статистические метода для исследовав телей,— М.: Статиздат, 1958.]
§3, Максимальная вероятность и «хвосты* 167 > , .4-6(10; 10, 0,2)=0,0008643584. Иначе говоря, если снабжение рассчитано на шесть единиц энергии, то вероятность перегрузки равна 0,00086, т. е. перегрузка ожидается в среднем в течение одной минуты из 1157 мин., или приблизительно одной минуты из 20 ча- сов. Вероятность того, что не менее восьми рабочим одновременно потребуется энергия, равна всего лишь 0,0000779264, или прибли- зительно в одиннадцать раз меньше. д) Проверка сывороток или вакцин х). Предположим, что нор- мальная частота заболеваний определенной болезнью среди крупно- го рогатого скота составляет 25%. Для проверки новой вакцины п здоровым животным делается прививка. Как оценить результат эксперимента? Для абсолютно недейственной вакцины вероятность иметь ровно k здоровых животных среди п подвергшихся прививке можно считать равной b(k\ п, 0,75). Для &=п=10 эта вероятность составляет приблизителььо 0,056, а для &=п=12 всего лишь 0,032. Таким образом, отсутствие заболеваний среди десяти или двенад- цати испытуемых животных можно рассматривать как подтверж- дение, хотя и не окончательное, эффективности вакцины. Заметим* что вероятность иметь не более одного больного животного из сем- надцати, не получивших прививки, приблизительно равна 0,0501. Следовательно, одно заболевание среди семнадцати животных есть более сильное свидетельство в пользу вакцины, чем отсутствие забо- леваний в партии из десяти животных. Для п=23 вероятность не более двух заболеваний приблизительно равна 0,0492, и поэтому два заболевания среди двадцати трех животных лучше свидетельст- вует в пользу вакцины, чем одно среди семнадцати или отсутствие заболеваний среди десяти. е) Другой статистический критерий. Предположим, что п, человек измеряют свое кровяное давление после приема опреде- ленного лекарства и до него и получают соответственно резуль- таты хп и xrlf ..., х„. Будем говорить, что f-e испытание закончилось успехом, если X; < x't, и неудачей, если xl > (Для простоты можем предположить, что все измерения дали разные результаты.) Если бы лекарство не было эффективным, то наши наблюдения соответствовали бы п испытаниям Бернулли с р= 1/2, и поэтому большее число успехов следует рассматривать как до- казательство эффективности лекарства. ► § 3. МАКСИМАЛЬНАЯ ВЕРОЯТНОСТЬ И «ХВОСТЫ» Из (2.1) видно, что b(k\n1p) __ (п—1 1 (п4-1)р—k ZQ 1Ч Ь — \ \ п, р) ~ kq ~ ХТ kq * V Поэтому вероятность b(k\ и, р) больше предыдущей для &<(п4~1 )Р и меньше для k>(n+\)p> Если (n-Yl)p^m — целое число, то х) Sukhatme Р. V., Panse V. G., Size of experiments for testing sera or vaccines, Indian Journal of Veterinary Science and Animal Husbandry, 13 (1943), 75—82,
168 Гл. VI. Биномиальное распределение и распределение Пуассона Ь(т\ п, р)=Ь(т—1; п, р). Существует только одно целое число т, такое, что (п+1) р—1<пг< (п + 1) р, (3.2) и мы получаем следующую теорему. Теорема. При изменении k от 0 до п члены b(k\ п, р) сначала монотонно возрастают, затем монотонно убывают, достигая наи- большего значения при k=m; если же т= (п+1)р, то наибольшее значение достигается дважды'. Ь(т—1; п, р)=Ь(т', п, р). Будем называть Ь(т; п, р) максимальной вероятностью. Часто т называют «наиболее вероятным числом успехов», но следует иметь в виду, что для больших значений п все члены b (k\ п, р) малы. При 100 бросаниях симметричной монеты наиболее вероятное число по- явлений герба равно 50, но вероятность этого события менее 0,08. В следующей главе мы увидим, что &(т; п, р) приближенно совпа- дает с 1/j/ 2nnpq. Обычно больший интерес представляет не вероятность появле- ния ровно г успехов, а вероятность появления по меньшей мере г успехов, т. е. + п, р). (3.3) (Этот ряд лишь формально является бесконечным, так как при v>n—г члены ряда равны нулю.) Сейчас мы получим верхнюю оценку этой вероятности, которая останется полезной и после того,, как в следующей главе будут найдены более точные оценки. Пред- положим, что г>пр. В силу (3.1) очевидно, что члены ряда (3.3) убывают быстрее членов геометрической прогрессии со знамена- телем 1—(г—np)!rq, и поэтому P{Sn^r }^b(r\ п, p)rql(г—пр). (3.4) С другой стороны, существуют более г—пр целых k, таких, что m^k^Lr. Сумма соответствующих членов биномиального распреде- ления меньше единицы, и каждый из них не меньше Ь(г\ п, р). Следовательно, Ь(г; п, р) не больше (г—пр)"1, и поэтому P{Sn>r}^n?/ (г—пр)2, если г>пр. (3.5) Такие же рассуждения применимы и при оценке левого «хвоста», однако проводить вычисления не нужно. Действительно, событие/ заключающееся в том, что наступило не больше г успехов, эквива- лентно тому, что по меньшей мере п—г испытаний закончились не- удачей. Применяя эквивалент (3.5) для неудач, получаем Р{8пС''}<(п—г)р/(пр—г)2, если г<пр. (3.6) В следующем параграфе мы продемонстрируем пользу этих не- равенств при оценке вероятности больших отклонений от наиболее вероятного значения tn.
§ 4. Закон больших чисел 169 § 4. ЗАКОН БОЛЬШИХ ЧИСЕЛ Мы несколько раз отмечали, что наше интуитивное представле- ние о вероятности основывается на следующем предположении. Если в п одинаковых испытаниях событие А осуществилось v раз и если п очень велико, то отношение v/n должно быть близко к ве- роятности р события Л. Ясно, что формальная математическая тео- рия может никогда не обращаться к действительной жизни, но она должна хотя бы содержать теоретическую модель явления, кото- рое пытается объяснить. В соответствии с этим нам нужно, чтобы неясное вводное замечание стало точной теоремой. С этой целью под «одинаковыми испытаниями» будем понимать «испытания Бернул- ли» с вероятностью успеха р. Если Sn — число успехов в п испыта- ниях, то Sn/n есть средняя доля успехов, которая должна быть близка к р. Теперь легко придать этому утверждению точный смысл. Рассмотрим, например, вероятность того, что Sn!n превос- ходит р+е, где sZ>0 — произвольно малое, но фиксированное чис- ло. Эта вероятность совпадает с P{Sn>n(p+e)}, и в силу (3.5) она не больше чем 1/(п82). Следовательно, при увеличении п имеем P{Sn>n(p+8)'}->0. Аналогично доказывается, что P{Sn<??(p—sJJ-xO, и поэтому P{|S„/n-р|<8}-> 1. (4.1) Словесно это выражается так: вероятность того, что средняя доля успехов отличается от р больше чем на произвольное наперед заданное 8, стремится к нулю при увеличении п. Это одна из форм закона больших чисел, которая служит основой нашего интуитивно- го представления о вероятности как мере относительных частот. Для практических приложений эту формулировку необходимо до- полнить более точной оценкой вероятности в левой части (4.1); такую оценку позволяет получить нормальное приближение для биномиального распределения (см. типичный пример гл. УП,4,з)). В действительности (4.1) является простым следствием этого при- ближения (см. задачу 12 гл. VII,7). Утверждение (4.1) является классическим законом больших чи- сел. Этот закон представляет весьма ограниченный интерес^ и в дальнейшем будет доказан более точный и более полезный усилен- ный закон больших чисел (см. гл. VIII, 4). Предостережение. Стало обычным делать из закона больших чисел выводы, которые определенно из него не следуют. Если Петр и Павел бросают симметричную монету 10 000 раз, то принято счи- тать, что Петр будет впереди приблизительно половину времени. Но это неверно. При большом числе различных игр с бросанием мо- неты есть основания ожидать, что в любой фиксированный момент число появлений герба больше приблизительно в половине всех
170 Гл. VI. Биномиальное распределение и распределение Пуассона случаев. Однако почти наверняка победивший игрок был впереди практически в течение всей игры. Итак, в противоположность широ- ко распространенному мнению временное среднее для любой отдель- но взятой игры никак не связано со средним для совокупности раз- личных игр в любой данный момент. Для более глубокого изучения других неожиданных и парадоксальных свойств случайных флук- туаций отсылаем читателя к гл. III, в частности к обсуждению за- кона арксинуса. § 5. ПУАССОНОВСКОЕ ПРИБЛИЖЕНИЕ1) Во многих приложениях мы имеем дело с испытаниями Бернул- ли, в которых п относительно велико и р относительно мало, а произведение \=пр (5.1) и не мало, и не велико. В таких случаях удобно использовать для b(k\ п, р) предложенное Пуассоном приближение, вывод которого мы начинаем. Для k=0 имеем 6(0; ft, р) = (1—/?)" = (!—к/п)п. (5.2) Переходя к логарифмам и используя разложение Тейлора (8.10) гл. II, находим log &(0; ft, /?)=rzlog (1—к/п) =—X—№/(2п)—. . (5.3) так что при больших п b (0; ft, р) е~к, (5.4) где знак & означает приближенное равенство (в данном случае с точностью до членов порядка п"1). Далее, из (3.1) видно, что для произвольного фиксированного k и достаточно больших п имеем Ь П, р) _ (fe — 1) Р /г b (k-— Г, п, р) kq k 9 \ ) Отсюда последовательно заключаем, что 6(1; ft, p)^Z-6(0; ft, p)^Ze~x, 6(2; ft, р)^(1/2)Х-6(1; ft, р) (1/2) и в общем случае по индукции получаем b(k\ ft, р) (V/£!)e’\ (5.6) Это и есть классическое пуассоновское приближение для биномиаль- ного распределения2). В силу большой важности этого приближе- ► а) Симон Д. Пуассон (1781—1840). Его книга Recherches sur la probabilite des jugements en matiere criminelle et en matiere civile, precedees des regies gene- rales du calcul des probabilites появилась в 1837 г. - ?)' О точности приближения см. задачи 33 и 34.
§ 5. Пуассоновское приближение 171 ния введем обозначение p(k\ %) = e-KKk/kl. (5.7) В этих обозначениях р(й; Z) будет приближением для b(k\ п, h/ri) при достаточно больших п. Примеры, а) В табл. 3 гл. IV,4 приведены пуассоновские веро- ятности (5.7) с Z=1 и для сравнения биномиальные распределения с р=\1п и п=3, 4, 5, 6, 10. Можно видеть, что, несмотря на малые значения п, приближение удивительно хорошее. б) Эмпирическая иллюстрация. Появление пары (7, 7) среди 100 пар случайных цифр должно подчиняться биномиальному рас- пределению с п=100 и /7=0,01. В табл. 2 приведены числа Nk дей- ствительных появлений этой пары в 100 группах по 100 пар слу- чайных цифр в каждой 1). Отношения TV^/100 сравниваются как с теоретическими биномиальными вероятностями, так и с со- ответствующими пуассоновскими приближениями. Полученные ча- стоты хорошо согласуются с теоретическими вероятностями. (По критерию %? случайные флуктуации приблизительно в 75 из 100 аналогичных случаев давали бы большие отклонения наблюдаемых частот от теоретических вероятностей.) Таблица 2 Пример пуассоновского приближения k b (k\ 100, 0,01) P(k-, 1) Kk 0 0,366 032 0,367 879 41 1 0,369 730 0,367 879 34 2 0,184 865 0,183 940 16 3 0,060 999 0,061 313 8 4 0,014 942 0,015 328 0 5 0,002 898 0,003 066 1 6 0,000 463 0,000 511 0 7 0,000 063 0,000 073 0 8 0,000 007 0,000 009 0 9 0,000 001 0,000 001 0 Первые три столбца иллюстрируют пуассоновское при- ближение для биномиального распределения. В последнем столбце приведены числа групп по 100 пар случайных цифр, в которых комбинация (7, 7) встречается ровно k раз. в) Дни рождения. Какова вероятность pk того, что в группе из 500 человек ровно k родились 1 января? Если эти 500 человек вы- браны случайно, то можно применить схему из 500 испытаний Бер- нулли с вероятностью успеха р=1/365. Для пуассоновского при- ближения положим %=500/365=1,3699. . . . I) Kendall М. G., Smith В., Tables of random gaippling numbers, Tracts for Computers, 24, Cambridge, 1940,
172 Гл, VI. Биномиальное распределение и распределение Пуассона Теоретические биномиальные вероятности и их пуассоновские приближения приведены ниже’ k 0 1 2 3 4 5 6 Биномиальные вероятности 0,2537 0,3484 0,2388 0,1089 0,0372 0,0101 0,0023 Пуассоновские вероятности 0,2541 0,3481 0,2385 0,1089 0,0373 0,0102 0,0023 г) Дефектные изделия. Предположим, что при производстве шу- рупов используется статистический контроль качества и поэтому законно применение схемы испытаний Бернулли. Если вероятность того, что шуруп окажется дефектным, равна /7=0,015, то вероят- ность того, что коробка со 100 шурупами не содержит брака, рав- на (0,985)100=0,22061. Соответствующее пуассоновское приближе- ние дает ^"1’!=0,22313. . ., что достаточно точно для большинства практических целей. Теперь поставим вопрос: сколько шурупов должно быть в коробке, чтобы вероятность обнаружить в ней по крайней мере 100 недефектных шурупов была не меньше 0,8? Если 100+х — искомое число шурупов, то х — небольшое целое. Чтобы применить пуассоновское приближение для п=100+л: испытаний, нужно было бы положить но пр приблизительно равно 100/?= *=1,5. Теперь задача свелась к нахождению наименьшего целого числа х, для которого е-1’6 {1 4- 1,5/1 + ... + (1,5)*/х!} > 0,8. (5.8) По таблицам х) находим, что для х=1 левая часть приближенно равна 0,56, а при х=2 она равна 0,809. Итак, согласно пуассонов- скому приближению, необходимо иметь 102 шурупа. В действитель- ности вероятность найти по меньшей мере 100 недефектных шурупов в коробке со 102 шурупами равна 0,8022... . д) Столетние старики. Каждый отдельный человек в момент рождения имеет мало шансов прожить 100 лет, но в большом об- ществе число ежегодных рождений велико. Из-за войн, эпидемий и т. п. продолжительности жизни различных людей не являются стохастически независимыми, однако в первом приближении можно п рождений сравнить с п испытаниями Бернулли, в которых успе- хом является смерть после 100 прожитых лет. В устойчивом обще- стве, где ни его размеры, ни уровень смертности существенно не изменяются, естественно ожидать, что частота тех лет, когда уми- я) Molina Е. С., Poisson’s exponential binomial limit, New York, Van NoS’ trand, 1942. [В этих таблицах даны значения p(k\ X) и p(k\ %)+р(&+!; ^)+. . . при k, меняющемся от 0 до 100.] [См. также книгу Л. Н» Большева и Н. В, Смирнова, указанную в примечании на cs 165.— Перев.1
§6. Распределение Пуассона 173 рают ровно k столетних стариков, приближенно равна p(k\ X), где X зависит от размера общества и от состояния здоровья его чле- нов. Данные по Швейцарии подтверждают этот вывод х). е) Опечатки, изюминки и т. п. Если при наборе книги сущест- вует постоянная вероятность того, что любая буква будет набрана неправильно, и если условия набора остаются неизменными, то мы имеем столько испытаний Бернулли, сколько букв в книге. Тогда частота страниц, содержащих ровно k опечаток, будет при- ближенно равна p(k\ Z), где К— характеристика наборщика. Воз- можная усталость наборщика, трудные места текста и т. п. увели- чивают вероятность ошибки и могут приводить к скоплениям опе- чаток. Таким образом, формулу Пуассона можно использовать для обнаружения существенных отклонений от нормы или от требова- ний статистического контроля. Аналогичные рассуждения приме- нимы во многих случаях. Например, если в тесто кладут много изюма, то после перемешивания следует ожидать, что доля було- чек, содержащих ровно k изюминок, будет приближенно равна p(k\ А), где К — плотность изюма в тесте. § 6. РАСПРЕДЕЛЕНИЕ ПУАССОНА В предыдущем параграфе пуассоновские вероятности (5.7) фи- гурировали лишь как удобные приближения для биномиального рас- пределения в случае больших п и малых р. В связи с задачами о со- впадениях и о размещениях в гл. IV изучались различные вероят- ностные распределения, которые в пределе также приводили к пу- ассоновским выражениям p(k\ ^). Здесь мы сталкиваемся с част- ным случаем того замечательного факта, что существует несколько распределений большой универсальности, которые появляются в самых разнообразных задачах. Тремя основными распределения- ми, встречающимися во многих задачах теории вероятностей, яв- ляются биномиальное распределение, нормальное распределение (которое будет введено в следующей главе) и распределение Пуас- сона p(k\ K) = e^k/kl, (6.1) которое мы рассмотрим теперь более подробно. Заметим сначала, что при сложении равенств (6.1) для k=0, 1, 2,. . . в правой части получается ряд Тейлора для е\ умножен- ный на е~\ Следовательно, для любого фиксированного X сумма p(k; X) равна единице, и поэтому можно представить себе идеаль- ный эксперимент, в котором р X) является вероятностью ровно k успехов. Сейчас мы покажем, почему многие физические опыты и статистические наблюдения действительно приводят к такой интер- *) Gumbel Е, J4 Les centenaires, Aktuarske Vedy, Prague, 7 (1937), 1—8,
174 Гл. VI. Биномиальное распределение и распределение Пуассона претации (6.1). Общность и важность применений распределения (6.1) иллюстрируются примерами следующего параграфа. Истин- ная природа распределения Пуассона станет ясной только в связи с теорией стохастических процессов (см. иные подходы в гл. XII,2 и гл. XVII,2). Рассмотрим последовательность происходящих с течением вре- мени случайных событий, таких, как радиоактивный распад или вызовы на телефонной станции. Каждое событие представляется точкой на оси времени, и нас интересует случайное распределение этих точек. Существует много различных типов таких распределе- ний, но они изучаются с помощью непрерывных распределений вероятностей, исследование которых откладывается до тома 2. Здесь мы лишь покажем, что простейшие физические предположе- ния приводят к р (k\ %) как к вероятности иметь ровно k точек (со- бытий) внутри фиксированного интервала определенной длины. На- ши методы неизбежно будут грубыми, но мы вернемся к этой задаче в гл. XII и XVIII, используя более точные методы. Физические предположения, которые мы хотим выразить мате- матически, заключаются в том, что условия эксперимента остаются неизменными с течением времени и что неперекрывающиеся интер- валы времени стохастически независимы в том смысле, что инфор- мация о числе событий в одном интервале ничего не говорит об их числе в другом. Непрерывные распределения вероятностей дают возможность выразить эти предположения непосредственно, одна- ко, будучи ограничены дискретными вероятностями, мы должны использовать приближенную конечную модель и затем переходить к пределу. Представим себе единичный интервал времени, разделенный на п подынтервалов длиной Мп. Заданную конечную совокупность то- чек в этом интервале можно рассматривать как результат случай- ного процесса, при котором каждый подынтервал имеет одну и ту же вероятность рп того, что в нем содержится одна или несколько то- чек совокупности. Подынтервал является либо занятым, либо пу- стым, и из предположения о независимости неперекрывающихся интервалов времени вытекает, что мы имеем дело с испытаниями Бернулли: вероятность получить ровно k занятых подынтервалов равна b(k\ п, рп). Полагая теперь п->оо, мы делаем эту дискрет- ную модель все более и более точной. При этом вероятность того, что весь интервал вообще не содержит точек совокупности, должна стремиться к конечному пределу. Но весь интервал не содержит точек тогда и только тогда, когда ни один подынтервал не занят, а вероятность последнего события равна (1—рп)п. Переходя к ло- гарифмам, мы видим > что эта величина стремится к пределу одно- временно с прп. Случай прп-^оо невозможен, так как он означал бы, что в сколь угодно малый интервал попадают бесконечно много точек совокупности. Поэтому в нашей модели неизбежно существует число 1, такое, что прп-Мк. В этом случае вероятность иметь ровно
§ 6. Распределение Пуассона 175 k занятых подынтервалов стремится к p(k\ X), и, поскольку мы рас- сматриваем различные точки, число занятых ячеек в пределе соот- ветствует числу точек совокупности, лежащих в нашем единичном интервале времени х). В приложениях единичный интервал времени необходимо заме- нить интервалом произвольной длины t, Если опять разделить его на подынтервалы длины 1//г, то вероятности рп остаются неизменны- ми, но число подынтервалов равно целому числу, ближайшему к nt. Переход к пределу будет таким же, только % заменяется на М. Это приводит нас к интерпретации величины р(й; M)=e-^(M)W (6.2) как вероятности иметь ровно k точек в фиксированном интервале длины t, В частности, вероятность того, что в интервале длины t не будет ни одной точки, равна р(0; М)=е~и, (6.3) и, следовательно, вероятность иметь одну или несколько точек равна 1—e~Kt. Параметр X — физическая постоянная, которая определяет плот- ность точек на оси t. Чем больше %, тем меньше вероятность (6.3) того, что точек нет. Предположим, что некоторый физический экс- перимент повторяется большое число N раз и что каждый раз под- считывается число событий в интервале фиксированной длины Л Пусть Nk— количество экспериментов, в которых наблюдается ровно k событий. Тогда Уо+^1+^2+... = ^ (6.4) Общее число точек, наблюдаемых в N экспериментах, равно ^+2y2+3iVs+...=T, (6.5) и TIN — среднее. При больших N мы ожидаем, что Nk&Np(k-, М) (6.6) (это лежит в основе всех применений понятия вероятности и будет обосновано и уточнено с помощью закона больших чисел в гл. X). Подставляя (6.6) в (6.5), находим T&N{p(\\ М) + 2р(2; W) + 3p(3; М)+...} = = Ne-^M {1 + M/1 + (M)2/2! + ...} = NM, (6.7) *) Можно представить себе и другие возможности. Наша модель может быть полезной при изучении автомобильных катастроф, но она неприменима, если под- считывается не число самих катастроф, а число разбитых автомобилей. Это объяс- няется тем, что в некоторых катастрофах участвует более одного автомобиля, и поэтому необходимо рассматривать случаи, когда все точки различны, когда есть две совпадающие точки, три совпадающие точки и т. д. В пределе мы приходим к обобщенному распределению Пуассона (см. гл. XI 1,2). С точки зрения более об- щих процессов можно сказать^ что мы считаем только число скачков^ но не рас-^ сматриваем их величину,
176 Гл. VIt Биномиальное распределение и распределение Пуассона и поэтому M^TIN. (6.8) Это соотношение дает нам метод оценки X по наблюдениям и способ сравнения выводов теории с результатами опытов. Примеры из следующего параграфа проиллюстрируют этот подход. Пространственные распределения Мы рассмотрели распределение случайных событий или точек на оси /, но те же самые рассуждения применимы к распределениям точек на плоскости или в пространстве. Вместо интервалов длины t будут области площади или объема t. Основное предположение со- стоит в том, что вероятность иметь k точек в любой определенной области зависит не от ее формы, а лишь от ее площади или объема. Кроме того, сохраним те же предположения, что и раньше: 1) при малых t вероятность иметь более одной точки в области объема t мала по сравнению с /; 2) неперекрывающиеся области вза- имно независимы. Для нахождения вероятности того, что в области объема t содержится ровно k случайных точек, разобьем эту об- ласть на п подобластей и в качестве приближения для искомой вероятности возьмем вероятность появления k успехов в п испы- таниях. Это означает, что мы пренебрегаем возможностью найти более одной точки в одной и той же подобласти, однако из нашего предположения 1) вытекает, что допускаемая погреш- ность стремится к нулю при п->оо. В пределе снова получается рас- пределение Пуассона (6.2). Звезды в космосе, изюминки в кексе, семена сорняков среди семян злака, дефекты в материалах, выводки животных в поле распределены согласно закону Пуассона; см. при- меры 7,6) и 7,д). §7. НАБЛЮДЕНИЯ, СООТВЕТСТВУЮЩИЕ РАСПРЕДЕЛЕНИЮ ПУАССОНА1) а) Радиоактивный распад. Радиоактивное вещество испускает а-частицы; число частиц, достигающих заданной части простран- ства в течение времени t, дает хорошо известный пример случай- ных событий, подчиняющихся закону Пуассона. Конечно, вещест- во непрерывно разрушается и через длительный промежуток вре- мени плотность потока а-частиц уменьшается. Однако для радия необходимы годы, прежде чем такое уменьшение станет заметным; для относительно коротких периодов времени условия можно счи- тать неизменными, и мы имеем идеальную реализацию предполо- жений, которые приводят к распределению Пуассона. а) Распределение Пуассона стало известно под названием закона малых чисел или редких событий. Эти неправильные названия затруднили понимание основной роли распределения Пуассона. Следующие примеры покажут сколь обманчивы такие «синонимы» распределения Пуассона»
§7, Наблюдения, соответствующие распределению Пуассона 177 В одном известном эксперименте1) радиоактивное вещество на- блюдали в течение JV=2608 интервалов времени по 7,5 секунд каж- дый; для каждого интервала регистрировалось число частиц, до- стигших счетчика. В табл. 3 приведены числа Nk интервалов, в те- чение которых наблюдались ровно k частиц. Общее число частиц равно T=^kNk== 10094, среднее — TIN=3,870. Теоретические зна- чения Np(k; 3,870) кажутся достаточно близкими к наблюденным числам Nk. Чтобы судить о степени этой близости, нужно оценить возможные величины случайных флуктуаций. Статистики судят о степени соответствия с помощью критерия %2. Согласно этому кри- терию, при идеальных условиях следует ожидать приблизительно в 17 из 100 аналогичных случаев отклонения более значительные, чем в табл. 3. Таблица 3 Пример «а». Радиоактивный распад k Nk 3,870) k Nk 2Vp (&; 3,870) 0 1 2 3 4 57 203 383 525 532 54,399 210,523 407,361 525,496 508,418 5 6 7 8 9 10 408 273 139 45 27 16 393,515 253,817 140,325 67,882 29,189 17,075 Всего 2608 2608,000 б) Падения самолетов-снарядов в Лондоне. В качестве примера распределения случайных точек по поверхности рассмотрим ста- тистику падений самолетов-снарядов в южной части Лондона во время второй мировой войны. Всю область разделим на М=576 небольших участков, каждый площадью £=1/4 кв. км. В табл. 4 приведены числа Nk участков ровно с k падениями 2). Общее число падений равно T=^kNk=331, среднее — М=77Af=0,9323. . . . Совпадение с распределением Пуассона поразительное; согласно критерию %2, при идеальных условиях примерно 88% аналогич- ных наблюдений дали бы худшее соответствие. Интересно отметить, что большинство населения верило в тенденцию точек падения скапливаться в нескольких местах. Если бы это было верно, то х) Rutherford Е., Chadwick J., Ellis C., Radiations from radioactive substam ces, Cambridge, 1920, 172. Табл. 3 и оценка по критерию %2 взяты из книги Kramer Н., Mathematical methods of statistics, Uppsala and Princeton, 1945, p. 436. [Имеется перевод: Крамер Г. Математические методы статистики.— 2-е изд.— М.: Мир, 1975, с. 472.] 2) Данные заимствованы из статьи Clarke R. D., An application of the Poisson distribution, Journal of the Institute of Actuaries, 72 (1946)г 481,
178 Гл, VI. Биномиальное распределение и распределение Пуассона следовало бы ожидать большую долю участков без разрывов либо с большим числом разрывов и меньшую долю участков промежу- точного класса. Табл. 4 показывает, что точки падения были со- вершенно случайными, все участки равноправными; здесь мы име- ем поучительную иллюстрацию того установленного факта, что не- искушенному человеку случайность представляется регулярностью или стремлением к скоплению. Таблица 4 Пример «б». Падения самолетов-снарядов в Лондоне k Nk Np (k\ 0,9323) 0 1 2 3 4 5 и более 229 211 93 35 7 1 226,74 211,39 98,54 30,62 7,14 1,57 в) Перестройка хромосом в клетках. Облучение рентгеновскими лучами вызывает в органических клетках определенные процессы, которые мы называем перестройкой хромосом. Во время облуче- ния вероятность такой перестройки остается постоянной и, соглас- но теории, числа Nk клеток, содержащих ровно k изменений, долж- ны подчиняться распределению Пуассона. Теория способна также предсказать зависимость параметра X от интенсивности облучения, температуры и т. д., но мы не будем вдаваться в эти детали. В табл. 5 приведены результаты одиннадцати различных серий экс- периментов 1). Они сгруппированы по степени их соответствия тео- рии. В последнем столбце указаны примерные проценты случаев, в которых при идеальных условиях (по критерию %2) случайные флуктуации дали бы худшее согласование с распределением Пуас- сона. Согласие между теорией и наблюдениями поразительное. г) Соединения с неправильным номером. В табл. 6 показана ста- тистика телефонных соединений с неправильным номером 2). Всего наблюдалось А^=267 номеров; Nk обозначает, сколько номеров имели ровно k неправильных соединений. Распределение Пуассона p(k\ 8,74) опять подходит удивительно хорошо. (По критерию %2 отклонения близки к среднему значению.) В статье Торндайка чи- татель найдет сведения о других телефонных статистиках, подчи- няющихся закону Пуассона. Иногда (например, в случае группо- вой абонентской линии, вызовов из группы телефонов-автоматов и т. д.) существует очевидная взаимосвязь между событиями, и тог- да распределение Пуассона не подходит. *) Catcheside D. G., Lea D. Е., Thoday J. M., Types of chromosome stru- ctural change induced by the irradiation of Tradescantia microspores, Journal of Genetics, 47 (1945—46), 113—136. Наша таблица совпадает с табл. IX этой статьи, мы лишь подсчитали заново %2-уровни с одной степенью свободы. 2) Данные заимствованы из работы Thorndike F., Applications of Poisson’s probability summation, The Bell System Technical Journal, 5 (1926), 604—624* В этой статье содержится графический анализ 32 различных статистик.
§ 7, Наблюдения, соответствующие распределению Пуассона 179 Таблица 5 Пример «в». Перестройка хромосом, вызванная рентгеновским облучением Номер оп ыта Клетки c k изменениями Общее число N х2-уровни в процентах 0 1 2 3 1 Наблюденное Nu Np(k; 0,35508) 753 752,3 266 267,1 49 47,4 5 6,2 1073 95 2 Наблюденное /Vp(6; 0,45601) 434 432,3 195 197,1 44 44,9 9 7,7 682 85 3 Наблюденное Nk Np(k; 0,27717) 280 278,9 75 77,3 12 10,7 1 1,1 368 65 4 Наблюденное Nk Np(k; 0,11808) 2278 2280,2 273 269,2 15 15,9 0 0,7 2566 65 5 Наблюденное Nk Np(k; 0,25296) 593 589,4 143 149,1 20 18,8 3 1,7 759 45 6 Наблюденное Nk Np(k>} 0,21059) 639 642,4 141 135,3 13 14,2 0 1,1 793 45 7 Наблюденное Np(k-, 0,28631) 359 362,0 109 103,6 13 14,9 1 1,5 482 40 8 Наблюденное Np(k; 0,33572) 493 498,2 176 167,3 26 28,1 2 3,4 697 35 9 Наблюденное Nb Np(k; 0,39867) 793 804,8 339 320,8 62 64,0 5 9,4 1199 20 10 Наблюденное Np(k', 0,40544) 579 588,7 254 238,7 47 48,4 3 7,2 883 20 11 Наблюденное Np(k\ 0,49339) 444 461,6 252 227,7 59 56,2 1 10,5 756 5 Таблица 6 Пример «г». Соединения с неправильным номером k Nk Np(&;8,74) k Nk ^p(A!;8,74) 0—2 1 2,05 11 20 24,34 3 5 4,76 12 18 17,72 4 11 10,39 13 12 11,92 5 14 18,16 14 7 7,44 6 22 26,45 15 6 4,33 7 43 33,03 ^16 2 4,65 8 31 36,09 9 10 40 35 35,04 30,63 267 267,00
180 Гл. VI. Биномиальное распределение и распределение Пуассона д) Подсчет бактерий и клеток крови. На рис. 1 воспроизведена фотография чашки Петри с колониями бактерий, которые под мик- роскопом видны как темные пятнышки. Чашка разделена на ма- ленькие квадраты. В табл. 7 приведены наблюденные в восьми Рис. 1. Бактерии в чашке Петри. Таблица 7 Пример «д». Число бактерий k 0 1 2 3 4 5 6 7 Х2-уро вень Наблюденное Nk Пуассоновское 5 6,1 19 18,0 26 26,7 26 26,4 21 19,6 13 11 ,7 8 9,5 97 Наблюденное N Пуассоновское 26 27,5 40 42,2 38 32,5 17 16,7 7 9,1 66 Наблюдённое Пуассоновское 59 55,6 86 82,2 49 60,8 30 30,0 20 15,4 26 Наблюденное Nk Пуассоновское 83 75,0 134 144,5 135 139,4 101 89,7 40 43,3 16 16,7 7 7,4 63 Наблюденное Н Пуассоновское 8 6,8 16 16,2 18 19,2 15 15,1 9 9,0 7 6,7 97 Наблюденное Affc Пуассоновское 7 3,9 11 10,4 11 13,7 11 12,0 7 7,9 8 7,1 53 Наблюденное N Пуассоновское 3 2,1 7 8,2 14 15,8 21 20,2 20 19,5 19 15 7 9,6 9 9,6 85 Наблюденное Nk Пуассоновское 60 62,6 80 75,8 45 45,8 16 18,5 9 7,3 78 Последнее значение Nв каждой строке учитывает квадраты с большим числом пят- нышек и поэтому в соответствующем столбце следовало бы указать «/? или более»
§ 8. Время ожидания. Отрицательное биномиальное распределение 181 экспериментах с восемью различными видами бактерий числа квад- ратов, содержащих ровно k пятнышек х). Здесь мы имеем пример важного практического применения распределения Пуассона к рас- пределениям случайных точек по поверхности. § 8. ВРЕМЯ ОЖИДАНИЯ. ОТРИЦАТЕЛЬНОЕ БИНОМИАЛЬНОЕ РАСПРЕДЕЛЕНИЕ Рассмотрим последовательность п испытаний Бернулли. Нас ин- тересует, сколько испытаний предшествуют r-му успеху, где г — фиксированное положительное целое. Общее число успехов в п испытаниях может быть, конечно, меньше г, но вероятность того, что r-й успех произойдет при v-м испытании, где очевидно, не зависит от п и зависит только от v, г и р. Поскольку необходи- мо, чтобы v^r, удобно писать v=k+r. Вероятность того, что r-й успех произойдет при (r+k)-M испытании, где k=0, 1, . . ., будем обозначать через f(k; г, р). Она равна вероятности иметь ровно k неудач перед r-м успехом. Такое событие происходит тогда и только тогда, когда среди r-\-k—1 испытаний есть ровно k не- удач, а следующее, или (r+k)-e, испытание заканчивается успехом; (r-\-k—1\ г 7 ь соответствующие вероятности равны ( ) рг чу* и р; следо- вательно, p) = (''\fe-I)pV. (8-1) Переписывая биномиальный коэффициент в соответствии с форму- лой (12.4) гл. II, находим эквивалентную форму записи fik- г, = 6 = 0, 1, 2...... (8.2) Предположим теперь, что испытания Бернулли проводятся до тех пор, пока не наступит г успехов.Типичное элементарное событие представляется в виде последовательности, содержащей случайное число k букв Н и ровно г букв У и заканчивающейся буквой У; вероятность такого события есть, по определению, prqk. Мы должны, однако, поставить вопрос, возможно ли, что испытания никогда не закончатся, т. е. существует ли бесконечная последо- вательность испытаний с числом успехов, меньшим чем г. Так как оо г, р) есть вероятность того, что r-й успех произойдет после k=0 конечного числа испытаний, то возможностью существования беско- нечной последовательности с числом успехов, меньшим чем г, х) Таблица заимствована из книги Neyman J., Lectures and conferences on mathematical statistics (mimeographed), Dept, of Agriculture, Washington, 1938.
182 Гл. VI. Биномиальное распределение и распределение Пуассона можно пренебречь тогда и только тогда, когда 2/(й;г,р) = 1. (8.3) Л=0 Но это так в силу следующего свойства биномиального ряда! 00 Л=0Ч к ' Умножая (8.4) на рг, получаем (8.3). В нашей задаче о времени ожидания г обязательно является по- ложительным целым, но величина, определяемая либо (8.1), либо (8.2), неотрицательна и (8.3) справедливо для любого положитель- ного г. Для произвольных фиксированных г>0 и 0<р<1 последова- тельность {/(&; г, р)} называется отрицательным биномиальным распределением. Оно встречается во многих приложениях (и мы уже сталкивались с ним в задаче 24 гл. V,8 как с предельной фор- мой распределения Пойа). Для положительных целых г последова- тельность {/(ft; г, р)} можно интерпретировать как вероятностное распределение времени ожидания r-го успеха*, в такой форме оно так- же называется распределением Паскаля. При г=1 оно сводится к геометрическому распределению {pqk}. Примеры, а) Задача Банаха о спичечных коробках х). Некий ма- тематик всегда носит в правом и левом карманах по коробке спи- чек. Когда ему нужна спичка, он наугад выбирает один из карма- нов. Последовательные выборы образуют, таким образом, испыта- ния Бернулли с р = 1/2. Предположим, что в начальный момент каждая коробка содержала ровно N спичек, и рассмотрим момент, когда математик впервые вытащит пустую коробку. В этот момент другая коробка может содержать 0, 1, 2,. . ., N спичек; соответст- вующие вероятности обозначим через иг. Договоримся считать «ус- пехом» выбор коробки из левого кармана. Из левого кармана бу- дет вынута пустая коробка, а в правом в это время будет ровно г спичек тогда и только тогда, когда (Д^+1)~му успеху предшест- вуют N—г неудач. Вероятность этого события равна f(N—r\ N+1, 1/2). Точно так же можно рассуждать и о правом кармане и, следо- вательно, искомая вероятность равна /9Д7__г\ ur==2f(N—r\ 2V+1, 1/2) = Q n (8.5) Численные значения в случае N=50 даны в табл. 8. (См. также за- дачи 21 и 22 ниже и задачу 11 гл. IX,9.) х) Этот пример возник из шутливого замечания о привычках Банаха (сде- ланного Г. Штейнгаузом) во врученном ему адресе. Пример стал неожиданно популярным в литературе, и по этой причине его название сохранено, Припи- сывать Банаху авторство этой задачи, конечно^ было бы ошибкой»
§ 8* Время ожидания. Отрицательное биномиальное распределение 183 1 Таблица 8 Вероятности (8.5) в задаче о спичечных коробках Г иг иг Г иг иг 0 0,079 589 0,079 589 15 0,023 171 0,917 941 1 0,079 589 0,159 178 16 0,019 081 0,937 022 2 0,078 785 0,237 963 17 0,015 447 0,952 469 3 0,077 177 0,315 140 18 0,012 283 0,964 752 4 0,074 790 0,389 931 19 0,009 587 0,974 338 5 0,071 674 0,461 605 20 0,007 338 0,981 676 6 0,067 902 0,529 506 21 0,005 504 0,987 180 7 0,063 568 0,593 073 22 0,004 041 0,991 220 8 0,058 783 0,651 855 23 0,002 901 0,994 121 9 0,053 671 0,705 527 24 0,002 034 0,996 155 10 0,048 363 0,753 890 25 0,001 392 0,997 547 И 0,042 989 0,796 879 26 0,000 928 0,998 475 12 0,037 676 0,834 555 27 0,000 602 0,999 077 13 0,032 538 0,867 094 28 0,000 379 0,999 456 14 0,027 676 0,894 770 29 0,000 232 0,999 688 иг есть вероятность того, что в момент, когда впервые одна из коробок окажется пу- стой, другая содержит ровно г спичек (предполагается, что вначале каждая коробка содержала 50 спичек). £/г=«0 + «1 + • • •+wr означает вероятность того, что вторая коробка содержит не более г спичек. б) Обобщение*, настольный теннис. Суть рассмотренной выше за- дачи становится яснее, если разным коробкам приписать разные вероятности. Для разнообразия проиллюстрируем этот вариант ина- че. Предположим, что Петр и Павел играют в игру, которую можно рассматривать как последовательность испытаний Бернулли с ве- роятностями р nq, характеризующими мастерство игроков. В обыч- ном настольном теннисе побеждает игрок, первым’ набравший 21 очко, т. е. победивший при 21 подаче. Для сравнения с предыду- щим примером рассмотрим более общую ситуацию, когда для об- щей победы нужна победа при 2v+l подаче. Тогда в игре будет самое меньшее 2v+l и самое большее 4v-H подач (испытаний). Обозначим через аг вероятность общей победы Петра при 4v+l—г испытаниях. Это событие происходит тогда и только тогда, когда в первых 4v—г испытаниях Петр набрал 2v побед и, следовательно, победил в (2v-H)-m испытании. Таким образом, (4v — г\ 2v )p2v+vv-r. (S6) В нашей игре «0+.. .+«2.v есть вероятность победы Петра. Вероят- ность того, что игра закончится ровно после 4v-j-l—г испытаний,;
184 Гл. VI. Биномиальное распределение и распределение Пуассона равна ar+br, где Ьг определяется формулой (8.6), в которой р и q меняются местами. Если положить 2v=A/ и p=q=\!2, то вероятности ar-Ybr сво- дятся к вероятностям ит из предыдущего примера. ► § 9. ПОЛИНОМИАЛЬНОЕ РАСПРЕДЕЛЕНИЕ Биномиальное распределение нетрудно обобщить на случай по- следовательных независимых испытаний, каждое из которых за- канчивается одним из нескольких возможных исходов. Обозначим возможные исходы каждого испытания через Еъ. . .,ЕГ и предпо- ложим, что вероятность осуществления исхода Et для каждого ис- пытания равна pt (i = l,. . .,г). При г=2 получаем испытания Бер- нулли; в общем случае числа pi должны удовлетворять только сле- дующему условию: Pi+- . .+рг=1, рг>0. (9.1) Результатом п испытаний будет, например, последовательность ви- да Е^Е^Еъ- • • • Вероятность того, что в п испытаниях Е± произой- дет kt раз, Е2 произойдет k2 раз и т. д., равна [n\/(k1lk2l...kr\)]p’i'p^...pkrr, (9.2) где ki — произвольные неотрицательные целые числа, удовлетворяю- щие очевидному условию • -+kr=n. (9.3) При г=2 (9.2) сводится к биномиальному распределению с р^ =р, Pz^q, kr=k, k2=n—k. Доказательство в общем случае опирает- ся на формулу (4.7) гл. II и проводится так же, как и для биноми- ального распределения. Выражение (9.2) задает полиномиальное распределение, полино- миальное потому, что выражение (9.2) совпадает с общим членом разложения полинома (pi+. . . Ч-Рг)72 • Это распределение применя- ется к выбору с возвращением, когда выбираемые объекты разбиты более чем на два класса (например, по профессиям). Примеры, а) Какова вероятность получить каждую грань дваж- ды при бросании двенадцати костей? Здесь Ei,. . ., Е^ соответствуют шести граням, все kt равны 2 и все Pi равны 1/6. Следовательно, ответ будет 12!2“6 6"12=0,0034. . . . б) Выбор. Пусть генеральная совокупность из N элементов раз- бита на классы Е±,. , .,ЕГ объема NPi,. . ., NPr соответственно. Полиномиальное распределение дает вероятности возможных ре- зультатов случайного выбора с возвращением объема п из этой со- вокупности.
§ 10. Задачи 185 в) Сложные г) испытания Бернулли. Две последовательности ис-. пытаний Бернулли с вероятностями успеха и неудачи соответст- венно pi, 71 и р2) q% можно рассматривать как один сложный экс- перимент с четырьмя возможными исходами в каждом испытании, а именно комбинациями (У, У), (У, Н), (Н, У), (Я, Н). Предпо- ложение о независимости двух исходных последовательностей при- водит к тому, что вероятности четырех исходов равны соответст- венно pip2, Piqz, Ц1Ръ> Q1Q2- Если четыре целых числа klf k2, k3, в сумме дают п, то вероятность того, что в п испытаниях УУ по- явится раз, УН появится k2 раз и т. д., равна [n!/(^! kJ kJ А4!)] (9.4) Частный случай рассмотренной схемы возникает при выборочном контроле. Изделие признается стандартным или бракованным с вероятностями соответственно р и q. Оно может быть проверено или не проверено с вероятностями соответственно р' и q'. Решение о проверке изделия принимается без информации о его качестве, так что испытания независимы (см. задачи 25 и 26 ниже и задачу 12 гл. IX, 9). § 10. ЗАДАЧИ 1. Предполагая все комбинации полов детей равновероятными, определить, какую долю семей с шестью детьми будут составлять семьи с тремя мальчиками и тремя девочками. 2. Игрок в бридж при трех последовательных сдачах не получил туза. Есть ли у него основания жаловаться на невезение? 3. Сколько случайных цифр нужно взять, чтобы вероятность появления сре- ди них цифры 7 была не меньше 9/10? 4. Сколько раз нужно сдать колоду карт для игры в бридж (сдачи независи- мы), чтобы вероятность того, что фиксированный игрок по меньшей мере один раз получит четыре туза, была не меньше 1/2? Решить задачу и в том случае, когда игрок заранее не фиксируется. 5. Пусть вероятность попадания в цель равна 1/5 и производится десять не- зависимых выстрелов. Какова вероятность попадания в цель по меньшей мере дважды? 6. Найти в задаче 5 условную вероятность попадания в цель по меньшей мере дважды, если известно, что по крайней мере одно попадание произошло. 7. Найти вероятность того, что среди 13 карт, наугад выбранных из колоды в 52 карты, имеются ровно две карты красной масти. Сравнить ее с соответствую- щей вероятностью для испытаний Бернулли с р=1/2. 8. Какова вероятность того, что дни рождения шести людей приходятся на два месяца, оставляя ровно десять месяцев свободными? Предполагается неза- висимость и равновероятность всех месяцев. 9. Найти вероятность того, что при бросании 6 правильных костей единица выпадает а) по меньшей мере один раз, б) ровно один раз, в) ровно два раза. Срав- нить эти вероятности с их пуассоновскими приближениями. 10. Известно, что левши составляют в среднем 1%. Оценить вероятность того, что среди 200 людей окажется по меньшей мере четверо левшей. 11. Книга в 500 страниц содержит 500 опечаток. Оценить вероятность того, что на заданной странице не менее трех опечаток, *) В оригинале multiple.— Прим, перев,
186 Гл. VI» Биномиальное распределение и распределение Пуассона I 12. Дальтоники составляют 1% лиц в некоторой группе людей. Как велика должна быть случайная выборка (с возвращением), чтобы вероятность иметь в ней одного дальтоника была не меньше 0,95? 13. В предыдущей задаче найти вероятность того, что в выборке из 100 чело- век а) нет дальтоников, б) дальтоников два или больше. 14. Оценить среднее число изюминок, которое должно быть в одной булочке, чтобы не более одной булочки из ста было без изюма. 15. Вероятность иметь на одной руке в покере десятку, валета, даму, короля и туза одной масти равна р= 1/649 740. Сколь велико должно быть п, чтобы веро- ятность того, что ни разу при п сдачах не окажется такого набора карт, меньше 1/е^ 1/3? (Замечание. Решение не требует никаких вычислений.) 16. Книга в п страниц содержит в среднем X опечаток на страницу. Оценить вероятность того, что хотя бы на одной странице будет более k опечаток. 17. Предположим, что существует два типа звезд (или изюминок в кексе, или дефектов материала). Заданный участок содержит / звезд первого типа с ве- роятностью р (/; а) и k звезд второго типа с вероятностью p(k\ b); эти два события предполагаются независимыми. Доказать, что тот же участок содержит всего п звезд с вероятностью р(м; а-[-Ь). (Сформулировать результат и предположения задачи в абстрактных терминах.) 18. Задача об уличном движении. Поток транспорта через пешеходный переход таков, что вероятность проезда машины в течение любой заданной се- кунды постоянна и равна р; известно также, что нет связи между проездом машин в разное время. Рассматривая секунды как неделимые единицы времени, прихо- дим к схеме испытаний Бернулли. Предположим, что пешеход может перейти улицу, если ни одна машина не будет проезжать в течение следующих трех се- кунд. Найти вероятность того, что он должен ждать ровно 6=0, 1, 2, 3, 4 секунд. (Соответствующие общие формулы не очевидны и будут выведены при изложении теории серий успехов в гл. XIII,7.) 19. Двое бросают симметричную монету п раз каждый. Найти вероятность того, что у них выпадет одинаковое число гербов. 20. Для последовательности испытаний Бернулли с вероятностью успеха р найти вероятность того, что а успехов произойдут прежде, чем b неудач. (Замеча- ние. Результат определяется самое большее за а-\-Ь—1 испытаний. Эта задача имеет значение для классической теории игр в связи с вопросом о том, как делить став- ку, если игра прервана в момент, когда одному игроку не хватает до победы а очков, а второму Ь.) 21. В задаче Банаха о спичечных коробках (пример 8,а)) найти вероятность того, что в момент, когда первая коробка оказалась пустой (но не была вынута пустой), во второй содержится ровно г спичек (где г=1, 2, . , N). 22. Продолжение. Используя предыдущий результат, найти вероятность х того, что отсутствие спичек было обнаружено впервые не в той коробке, которая опустела первой. Показать, что полученное выражение сводится к виду х= 2“22V“1’ или приближенно (1/2) (Nл)"1/29 23. Корректуры некоторой книги независимо читали два корректора, кото- рые нашли соответственно и k2 ошибок; k12 ошибок нашли оба. Дать приемле- мую оценку неизвестного числа п ошибок в корректурах. (Предположить, что проверка корректур соответствует схеме испытаний Бернулли, в которой про- веряющие обнаруживают ошибку с вероятностями соответственно pi и р2. Исполь- зовать закон больших чисел.) Замечание. В этой задаче в простых терминах опи- сывается экспериментальный прием, использованный Резерфордом для подсчета сцинтилляций. 24. Чтобы оценить численность популяций животных путем их частичного отлова х), ловушки расставляются последовательно г раз. Пусть каждое животное I х) Moran Р4 A. Р., A mathematical theory of animal trapping, Biometrika» я (1951), 307—311,
§ 10. Задачи 1871 попадает в ловушку с вероятностью q\ предположим, что первоначально было я животных и что изменение ситуации между двумя последовательными отловами заключается в изменении численности популяции (так как пойманные животные исключаются из рассмотрения). Найти вероятность того, что г последовательных отловов дадут соответственно пъ п2, . . пг пойманных животных. 25. Сложные испытания Бернулли. В примере 9,в) найти условную вероят- ности р и q соответственно событий (У, Н) и (Н, У), предполагая, что одна из этих комбинаций осуществилась. Показать, что р>1/2 в случае Pi>p2 ир<1/2 в случае p2>Pi- 26. Продолжение1). Показать, что если в п парах испытаний ровно т пар привели к одной из комбинаций (У, Н) или (//, У), то вероятность появления (У, Н) ровно k раз равна b(k; т, р). 27. Смесь биномиального и пуассоновского распределений. Пусть некоторое на- секомое откладывает г яиц с вероятностью p(r; X), а вероятность развития насе- комого из яйца равна р. Предполагая взаимную независимость развития яиц, показать, что вероятность появления k новых насекомых дается распределением Пуассона с параметром Хр. Замечание. Другой пример аналогичной ситуации: ве- роятность разрыва k хромосом равна p(k\ X), а вероятность воссоединения фраг- ментов равна р (другие примеры такого рода см. пример гл. IX,1,г) и в гл. Х11₽1)* 28. Доказать следующую теорему 2): максимальная вероятность полино- миального распределения (9.2) удовлетворяет неравенствам пр[~ 1 < ki^ (n + r— 1) р^ f=l,2, (Ю-1) Указание. Сначала доказать, что вероятность является максимальной тогда и только тогда, когда (р,£у ру (&/+1) для каждой пары (i, j). Сложить эти неравенства для всех j и для всех i 7= /. 29. Доказать, что вероятности p(k\ X) распределения Пуассона достигают максимума, когда k есть наибольшее целое, не превосходящее %. Замечание. В задачах 30—34 используется пуассоновское приближение для биномиального распределения. Предполагается, что 'к=пр. 30. Показать, что отношение ak~b(k\ п, р,)/р(^;Х) при изменении k от 0 до оо сначала растет, а затем убывает, достигая максимума, когда k есть наи- большее целое, не превосходящее Х+1. 31. Доказать, что при увеличении k вероятности b(k\ п, р) сначала меньше, затем больше и потом опять меньше, чем p(k\ X). 32. Доказать, что если п->со и р->0 так, что величина пр=К остается посто- янной, то b(k-} п, р)-^р (&; равномерно по k. 33. Показать, что kl V п) П’ п) V п) * (10<2) х) Wald A., Sequential tests of statistical hypotheses, Ann. Math. Statist., 16 (1945), 166. Вальд использует приведенные выше результаты, чтобы создать практический метод сравнения двух эмпирически полученных последовательно- стей испытаний (например, результаты работы двух машин) для выбора той, в которой вероятность успеха больше. Он сводит задачу к более простой задаче нахождения того, .будет ли в последовательности испытаний Бернулли частота успеха значительно отличаться от 1/2. 2) В первом издании утверждалось лишь, что — npi\^r. Настоящее уточнение и его изящное доказательство принадлежат П. Морану.
188 Гл. VI. Биномиальное распределение и распределение Пуассона 34. Вывести из (10.2) неравенства р (fe; X) > b (fe; п, р) > р (k\ X) e-*8/(«-*)-W(n-M. (10.3) Указание. Использовать (12.26) из гл. II. Замечание. Хотя неравенства (10.2) являются очень грубыми, соотношения (10.3) дают превосходные оценки погрешности приближения. При помощи вы- числений, аналогичных выполненным в гл. II, 9, неравенства (10.3) нетрудно уточ- нить. Между прочим, из результата задачи 30 очевидно вытекает, что экспоненту в левой части (10.3) можно заменить величиной тМп, не превышающей (р+п”"1)^. Другие предельные теоремы 35. Биномиальное приближение для гипергеометрического распределения. Генеральная совокупность из N элементов состоит из красных и черных элементов, число которых относится как р : q (где р+<?=1). Берется выборка без возвраще- ния объема п. Вероятность того, что она содержит ровно k красных элементов, да- ется гипергеометрическим распределением, введенным в гл. II, 6. Доказать, что эта вероятность стремится к b(k; п, р) при М->оо. 36. Предположим, что в условиях предыдущей задачи р мало, п велико, а К—пр и не’мало, и невелико. Тогда гипергеометрическое распределение можно ап- проксимировать распределением Пуассона p(k\ X). Проверить это непосредствен- но, не используя пуассоновское приближение для биномиального распределения. 37. Пусть в отрицательном биномиальном распределении {f(k\ г, р)} из § 8 7^-0 и г->оо таким образом, что произведение rq—h постоянно. Показать, что f(k; г, р)->-р (й; Л). (Замечание. Тем самым получаем предельную теорему для распределения Пойа; см. задачу 24 гл. V, 8.) 38. Многомерное распределение Пуассона. Доказать, что когда п велико, a npj = 'kj при /= 1, ..., г—1 и не мало, и не велико, полиномиальное рас- пределение (9.2) можно аппроксимировать распределением Доказать также, что члены этого распределения в сумме дают единицу. (Заметим, что в задаче 17 мы имели дело с двумерным распределением Пуассона.) 39. а) Вывести (3.6) непосредственно из (3.5), используя очевидное соотно- шение b(k\ п, р)=Ь(п—k\ п, q)9 б) Вывести биномиальное распределение как с помощью общей формулы суммирования (3.1) гл. IV, так и по индукции. 40. Доказать, что 2 kb (k\ п, р)— пр и 2 k2b (k\ n, р) =n2p2-\~npq9 41. Доказать, что 2 2i)=X2 + X, 42. Проверить тождество k 2* (v; nit р) b (k—v, nz, p) = b (k; ni + »2, p) (10.4) v = 0 и пояснить его вероятностный смысл. Указание* Использовать равенство (6.4) гл. II.
§10. Задачи 189 Замечание. Соотношение (10.4) представляет собой частный случай фор- мулы свертки, которая будет введена в гл. XI; другой пример дает (10.5). 43. Проверить тождество k (v; ^i) р ki+w. <10-5) v=0 44. Пусть k В (k-,n, p)=^b(y;n, р) (10,6) v = 0 есть вероятность появления не более k успехов в п испытаниях. Тогда В (k; «4-1, р)=В (k; п, p)—pb (k; п, р), В (&-|-1; п+1, р)—В (k; n, p)-\-qb (Z?+l; n, р). * Проверить эти равенства, а) исходя из определения, б) аналитически. 45. Доказать, что в тех же обозначениях г) я ) (10.8) ' о II Р 1—В(й; п, р)=п (”70 J ^(\ — t)n-k-idt. (10,9) 7 о Указание. Проинтегрировать по частям или продифференцировать обе части по р. Вывести одну формулу из другой. 46. Доказать, что 00 р (0; %) + ...+/>(«; X) = (l/n!)^e-^«dAj. (10 10) i, В (k\ и, р) = (п—k) х) Интеграл в (10.9) представляет собой неполную бета-функцию. Таблица для 1—B(k\ п, р) с точностью до 7 знаков после запятой для k и п, не превосходящих 50, и р=0,01, 0,0% 0,03, . . . даны в работе Pearson К., Tables of the incomplete beta function, London, Biometrica Office, 1934. [Имеется перевод: Пирсон К. Таблицы неполной бета-функции,— Ms: ВЦ АН СССР4 1974.)
ГЛАВА VII НОРМАЛЬНОЕ ПРИБЛИЖЕНИЕ ДЛЯ БИНОМИАЛЬНОГО РАСПРЕДЕЛЕНИЯ Нормальное приближение для биномиального распределения имеет важное теоретическое и практическое значение. Оно сыграло большую роль в развитии теории вероятностей, так как привело к первой предельной теореме. G современной точки зрения эта теорема является лишь частным случаем центральной предельной теоремы, к которой мы обратимся в гл. X, но полное исследова- ние которой должно быть отложено до тома 2. Частный случай р=1/2 рассматривался в гл. III при выводе предельных теорем о первом достижении, о числе перемен знака и т. д. Этот частный случай особенно прост и отдельно исследуется в § 2. § 1. НОРМАЛЬНОЕ РАСПРЕДЕЛЕНИЕ Во избежание дальнейших перерывов в изложении основных идей сделаем здесь отступление и введем две чрезвычайно важные функции. Определение. Функция, определяемая формулой п(х) = (1У2^)е-^2, (1.1) называется плотностью нормального распределения; ее интеграл 91 (х) == (1//2л) J dy (1.2) — со называется нормальной функцией распределения. График п(х) — симметричная колоколообразная кривая, изобра- женная на рис. 1. Заметим, что вдоль осей х и у мы используем разный масштаб. Максимум п(х) равен 1/)/2л 0,399, так что в обычной декартовой системе график и (%) был бы более пологим. (Обозначения п и нестандартны. В первых двух изданиях были более традиционные обозначения <р и Ф, но в томе 2 для после- довательности изложения необходимо, чтобы эти символы исполь* зовались в других целях.)
§1. Нормальное распределение 191 99,7% площади Рис. 1. Плотность нормального распределения И, Лемма 1. Площадь, ограниченная графиком функции п(х) и осью х, равна 1, т. е. n(x)dx~ 1. (1-3) Доказательство. Имеем оо \ 2 со оо и (х) dx ! = J J п (х) и (у) dx dy = — 00 J — 00 —00 00 оо s=[l/(2n)] J (xi+^l2dxdy. (1-4) — 00 —oo Переходя в этом двойном интеграле к полярным координатам, получаем 2л оо [l/(2n)]J d0$e-'2/2rdr = о о 00 J e-'^rdr = е~^2 о (1.5) что и доказывает лемму. ► Из определения и леммы вытекает, что 31 (х) монотонно воз- растает от 0 до 1. Ее график (рис. 2) представляет собой S-
192 Гл. VII. Нормальное приближение для биномиального распределения образную кривую, причем 91 (— х)=1— 91 (х). (1.6) В табл. 1 приведены значения1) 9i(x) для положительных х; зна- чения 91 (—х) получаются при помощи (1.6). Рис. 2. Нормальная функция распределения Для многих целей удобно иметь простую оценку «хвоста» 1—91 (х) при больших х. Такую оценку дает следующая лемма. Лемма 2* 2 *). При х—► оо 1 —91 (х) ~ х-1и (х); (1.7) точнее, для всех х > 0 справедливо двойное неравенство (х-1—х“?)п(х) < 1—91 (х) < х-1п(х). (1.8) (См. задачу 1.) Доказательство. Очевидно, [1—Зх“4]п(х) <п(х) < [14-х"2] п(х). (1.9) Члены этого неравенства представляют собой производные членов из (1.8), взятые с обратным знаком, поэтому (1.8) вытекает из (1.9) после интегрирования по полупрямой [х, оо). 4) Более подробные таблицы см. в Tables of Probability Functions, v. 2, Nat. Bureau of Standards, New York, 1942. [Имеется перевод: Таблицы веро- ятностных функций, Том II.—М.: ВЦ AHJCCCP, 1959.] Значения функций П (х) и 91 (*) — 91 (—х) приведены, в этих таблицах с 15 знаками после запя- той. При 0 < х < 1 значения х берутся через 0,0001, при х > 1 — через 0,001. 2) Здесь и в дальнейшем знак ~ означает, что отношение величин, сое- диненных этим знаком, стремится к 1,
§ 1. Нормальное распределение 193 Таблица 1 Нормальная функция распределения ЭД (х) 0,00 0,01 0,02 0,03 0,04 0,05 0, 06 0,07 0,08 0,09 0,0 0.5000 0,5040 0,5080 0,5120 0,5159 0,5199 0,5239 0,5279 0,5319 0,5359 0,1 0,5398 0,5438 0,5478 0,5517 0,5557 0,5596 0,5636 0,5675 0,5714 0,5753 0,2 0,5793 0,5832 0,5871 0,5910 0,5948 0,5987 0,6026 0,6064 0,6103 0,6141 о,з 0,6179 0,6217 0,6255 0,6293 0,6331 0,6368 0,6406 0,6443 0,6480 0,6517 0,4 0,6554 0,6591 0,6628 0,6664 0,6700 0,6736 0,6772 0,6808 0,6844 0,6879 0,5 0,6915 0,6950 0,6985 0,7019 0,7054 0,7088 0,7123 0,7157 0,7190 0,7224 0,6 0,7257 0,7291 0,7324 0,7357 0,7389 0,7422 0,7454 0,7486 0,7518 0,7549 0,7 0,7580 0,7612 0,7642 0,7673 0,7704 0,7734 0,7764 0,7794 0,7823 0,7852 0,8 0,7881 0,7910 0,7939 0,7967 0,7995 0,8023 0,8051 0,8078 0,8106 0,8133 0,9 0,8159 0,8186 0,8212 0,8238 0,8264 0,8289 0,8315 0,8340 0,8365 0,8380 1,0 0,8413 0,8438 0,8461 0,8485 0,8508 0,8531 0,8554 0,8577 0,8599 0,8621 1,1 0,8643 0,8665 0,8686 0,8718 0,8729 0,8749 0,8770 0,8790 0,8810 0,8830 1,2 0,8849 0,8869 0,8888 0,8907 0,8925 0,8944 0,8962 0,8980 0,8997 0,9015 1,3 0,9032 0,9049 0,9066 0,9083 0,9099 0,9115 0,9131 0,9147 0,9162 0,9177 1,4 0,9192 0,9207 0,9222 0,9236 0,9251 0,9265 0,9279 0,9292 0,9306 0,9319 1,5 0,9332 0,9345 0,9357 0,9370 0,9382 0,9394 0,9406 0,9418 0,9430 0,9441 1,6 0,9452 0,9463 0,9474 0,9485 0,9495 0,9505 0,9515 0,9525 0,9535 0,9545 1,7 0,9554 0,9564 0,9573 0,9582 0,9591 0,9599 0,9608 0,9616 0,9625 0,9633 1,8 0,9641 0,9649 0,9656 0,9664 0,9671 0,9678 0,9686 0,9693 0,9699 0,9706 1,9 0,9713 0,9719 0,9726 0,9732 0,9738 0,9744 0,9750 0,9758 0,9762 0,9767 2,0 0,9773 0,9778 0,9783 0,9788 О;9793 0,9798 0,9803 0,9808 0,9812 0,9817 2,1 0,9821 0,9826 0,9830 0,9834 0,9838 0,9842 0,9846 0,9850 0,9854 0,9857 2,2 0,9861 0,9865 0,9868 0,9871 0,9875 0,9878 0,9881 0,9884 0,9887 0,9890 2,3 0,9893 0,9896 0,9898 0,9901 0,9904 0,9906 0,9909 0,9911 0,9913 0,9916 2,4 0,9918 0,9920 0,9922 0,9925 0,9927 0,9929 0,9931 0,9932 0,9934 0,9936 2,5 0,9938 0,9940 0,9941 0,9943 0,9945 0,9946 0,9948 0,9949 0,9951 0,9952 2,6 0,9953 0,9955 0,9956 0,9957 0,9959 0,9960 0,9961 0,9962 0,9963 0,9964 2,7 0,9965 0,9966 0,9967 0,9968 0,9969 0,9970 0,9971 0,9972 0,9973 0,9974 2,8 0,9974 0,9975 0,9976 0,9977 0,9977 0,9978 0,9979 0,9980 0,9980 0,9981 2,9 0,9981 0,9982 0,9983 0,9984 0,9984 0,9984 0,9985 0,9985 0,9986 0,9986 з,о 0,9986 0,9987 0,9987 0,9988 0,9988 0,9988 0,9989 0,9989 0,9989 0,9990 3,1 0,9990 0,9991 0,9991 0,9991 0,9992 0,9992 0,9992 0,9992 0,9993 0,9993 3,2 0,9993 0,9993 0,9993 0,9994 0,9994 0,9994 0,9994 0,9994 0,9995 0,9995 При х<0 используется соотношение 9? (— x) = l—9? (х). Замечание о терминологии. Термин функция распределения используется в математической литературе для неубывающих функций от х, стремящихся к О при х-> —оо и к 1 при х—>со. В настоящее время статистики предпочитают тер- мин кумулятивная функция распределения, но прилагательное «кумулятивная» является излишним. Плотность распределения — это неотрицательная функция / (х), интеграл от которой по всей оси г равен единице. Интеграл от — оо до х от 7 № 221
194 Гл. VII. Нормальное приближение для биномиального распределения любой плотности распределения является функцией распределения. Приме- нявшийся ранее термин функция частот (frequency function) представляет со- бой синоним для плотности распределения. Нормальное распределение часто называют гауссовским распределением$ но оно использовалось в теории вероятностей еще Муавром и Лапласом. Если изменить начало отсчета и единицу измерения, то 91 (х) преобразуется в 9? ((х—а^/Ь). Эта функция называется функцией распределения нормального закона со средним значением а и дисперсией Ь2 (или стандартным отклонением |6|). Функцию 29? (х Г 2) — 1 часто называют функцией ошибок. § 2. СИММЕТРИЧНЫЕ РАСПРЕДЕЛЕНИЯ Рассмотрим, как используется нормальное распределение в качестве приближения для биномиального распределения с р = 1/2. Есть две причины, по которым частный случай р = \/2 выделяет- ся особо. Во-первых, вычисления здесь намного проще, и, следо- вательно, легче объяснить, как в этой задаче возникает нормаль- ное распределение. Во-вторых, данный частный случай рассмат- ривался в связи со случайными блужданиями (см. гл. III, 2), и, следовательно, желательно иметь соответствующие выкладки, не отягощенные техническими деталями, необходимыми для несиммет- ричных распределений. Для определенности возьмем n=2v четным и для упрощения по- ложим ak = b(v 4* k\2v, 1/2), (2.1) т. е. ak — члены симметричного биномиального распределения, переномерованные в зависимости от их расстояния до максимальной вероятности, а0—максимальная вероятность и k изменяется от — v до V. Поскольку a^k = ak, рассмотрим только ^^0. (В обозначениях гл. III имеем ak = p2v,2k- Приведенное ниже доказательство могло быть там же и помещено, так как не ис- пользует идеи, развитые после § 2 гл. III.) Чтобы понять, как ведет себя последовательность а0, air az, ..., сравним ее общий член с а0, используя соотношение __ v(v-l)...(v--fe+l) k 0 (v+1) (v + 2)...(v + ^) ’ ’ которое легко получить из определения (2.1). Нас интересует поведение последовательности только при боль- ших значениях v, и поэтому будем рассматривать лишь те зна- чения &, при которых отношение ktv мало, так как при остальных k члены ah пренебрежимо малы. Разделив числитель и знаменатель дроби в (2.2) на vk, получим дробь с членами вида 1 +//v, где / из- меняется от — (k—1) до k. Далее, l + //v = ^7v+.-., (2.3) где многоточие означает члены, сумма которых меньше, чем (/7v)2. Для такого приближения дробь в (2.2)*сводится к экспоненте с по-
§2. Симметричные распределения 195 казателем —(2/v) [1+ ... + (k—l)]—k/v=—k*/v и погрешность приближения меньше, чем ft3/v* 2. Соответственно при v —> оо и k из интервала 0 < k < /Cv, где К>3->0, (2.4) имеем приближение ak~ aoe~k2/\ (2.5) Если выразить биномиальные коэффициенты через факториалы, то, используя формулу Стирлинга (9.1) гл. II1), видим, что £z0=f2v')2-2v---‘ (2.6) 0 \ V у nv v > Подставляя это в (2.5), получаем ak~hn(kK), где ft = j/2/v = 2/j/b« (2.7) Это основное соотношение справедливо при v—> оо и при k, не превосходящих чисел Kv, которые удовлетворяют условию (2.4). Мы будем использовать (2.7) только для значений k порядка V v; в этом случае (2.4) тривиально выполняется. На практике нам обычно требуются приближения для вероят- ностей попадания в различные интервалы, т. е. для сумм вида2) Л (%i, х2) = 2 (2-8) Xi < k < х2 где суммирование проводится по всем целым числам между хг и х2 включительно. Сейчас мы покажем, как можно найти прибли- х) Замечание о постоянной в формуле Стирлинга. Напомним, что при доказательстве формулы Стирлинга в § 9 гл. II не было показано, что по- стоянная в ней равна У2л. Восполним этот пробел следующим образом. Постоянную л в (2.6) мы должны заменить на неизвестную постоянную. В тео- реме об аппроксимации (см. ниже) это приведет лишь к тому, что правую часть (2.10) следует умножить на неизвестную постоянную с, и нужно дока- зать, что с=1. Возьмем в (2.10) zx = 0. Отношение обеих частей (2.10) стре- мится к 1 при п->оо. Но из оценки «хвоста» (3.5) гл. VI вытекает, что левая часть лежит между 1/2 и 1/2 — 4г72, в то время как для правой части из (1.8) следует двойное неравенство с > с [9i (z2) —-1/2] = (1/2) с—с [1 —$1 (г2)] > (1/2) с-сц (г2)/г2. Для достаточно больших г2 обе части (2.10) сколь угодно близки соответ- ственно к 1/2 и с/2, и поэтому с=1, как и утверждалось. 2) Мы не стали обозначать сумму в (2.8) через S„, так как этот символ в гл. III и VI имеет другой смысл. На языке теории случайных блужданий A (Xi, х2) есть вероятность того, что в момент n = 2v частица находится между 2xi и 2х2; в терминологии настоящей главы X(xi,x2) есть вероятность того, что число успехов в n = 2v испытаниях лежит между v-|-Xi и В следующем параграфе это число снова будет обозначаться через SZi. Г
196 Гл. VII. Нормальное приближение для биномиального распределения жение для А (х) через площадь области, лежащей под графиком п(х), а эту площадь, в свою очередь, можно выразить через ин- теграл 91. В силу монотонности п ясно, что площадь области, лежащей под графиком п между kh и (й+1)/г, меньше, чем hn(kh), но больше, чем hn ((£ + 1) h), откуда следует, что x2h + h x2h J It (s) ds < 2 hn (kh) < j n (s) ds. (2.9) xth Xi </г < x2 Xih — h Отсюда вытекает, что средний член в (2.9) есть приближение для Л(хх, ^2)> которое будет хорошим, когда v велико и отношение k2/v не мало и не велико, т. е. когда h мало, a xh не мало и не велико. Два крайних члена в (2.9) равны соответственно 91 (xji+h).—9J (xx/t) и 9i (x2/i)—91 (x±h—h). Их разность стремится к 0 при h—>0, и поэтому их можно заменить на 9i (x2/i)—91 (хх/г). Сформулируем полученный результат в виде предельной тео- ремы, заменив при этом переменную х на z = xh. Теорема об аппроксимации. Для фиксированных гх < ?2 спра- ведливо соотношение _ 2 ад-ад. (2.Ю) (1/2) Zi V п < k < (1/2) z2 V п Вскоре мы увидим, что эта теорема существенно обобщается в определенных случаях, когда z± и г2 могут меняться вместе с/г, не оставаясь ограниченными. Заметим, что предельная теорема (2.7) гл. III содержится в (2.10), которая, в свою очередь, есть лишь част- ный случай общей теоремы из следующего параграфа. Оценки погрешности. Нам не нужно беспокоиться о погрешности, допус- каемой при замене суммы интегралом, поскольку (2.9) содержит верхние и нижние оценки. Чтобы оценить погрешность приближения в (2.7) положим ak^aQe~k2lv+^==hK (kh) eS1~£z, (2*11) так что 8i представляет собой погрешность, допускаемую при опускании членов более высокого порядка в (2.3), а величина 82 определяется-из (2.6). Из наших рассуждений видно, что /?-1 / = 1 Оценки погрешности приближения наиболее интересны для относительно малых v, и для рассмотрения этого случая будем предполагать только, что k < (1/3) v. Сравнивая разложение (8.11) гл. II с суммой геометрической прогрессии со знаменателем 1/3, мы видим, что каждый член ряда (2.12) положителен и меньше, чем (//v)3. Следовательно, сумма ряда положительн^ и меньше, чем &4/(4v)3. Из (8.9) гл. II аналогично выводится, что последнее слагаемое в правой части (2.12) отрицательно и больше, чем —3Z?2/(4v2). Таким образом, —ЗЛ2/п2 < 8i < 2/е4М если k < (1/6) п. (2.13)
§ 3. Предельная теорема Муавра — Лапласа 197 Как правило, в приложениях величины k и п сравнимы, и тогда условие k < п/6 тривиально выполняется. При данных обстоятельствах неравенства (2.13) достаточно точны. Что касается (2.6), то, как следует из уточненной формулы Стирлинга (9.15) гл. II, для aQ получается лучшее приближение, если умножить правую часть (2.6) на е1/<4Л> , и в любом случае 1/(4п) — 1 /(20n3) < е2 < 1 /(4n) +1 /(360/г3). (2.14) Итак, найдены точные оценки погрешностей приближений (2.7) и (2.10). Эти оценки применимы даже для относительно небольших значений п. Основной результат наших исследований заключается в том, что относи- тельная погрешность приближения (2.7) имеет порядок &2/п2 или k*ln3 в зави- симости от того, какая из этих величин больше. На практике эти оценки обычно используются, когда k2/n велико, и в этом случае относительная погрешность имеет порядок k^/n3. Наши оценки указывают также путь, как улучшить приближение с помощью соответствующего изменения членов (см. задачу 14). § 3. ПРЕДЕЛЬНАЯ ТЕОРЕМА МУАВРА — ЛАПЛАСА Сейчас будет показано, как полученные выше приближения можно обобщить на произвольное биномиальное распределение с р #=1/2. Рассуждения те же, но потребуется больше вычисле- ний. Первая сложность возникает в связи с максимальной вероят- ностью распределения. Как следует из (3.2) гл. VI, индекс т максимальной вероятности—это единственное целое число вида т = цр4-6, где —(3.1) Величиной б в конечном счете мы будем пренебрегать, но в вы- числениях она появится. (В случае р=1/2 б не было, так как мы предполагали, что n = 2v четно.) Как и в предыдущем параграфе, перенумеруем члены бино- миального распределения и запишем aft = &(m + £; п, р) = Рт+кдп~т~к. (3.2) Для определенности предположим, что k > 0; для k < 0 рассуж- дения аналогичны. (В случае k < 0 нужно лишь поменять места- ми р и q,) Аналогично (2.2) имеем (п— т) (п— пг— 1)... (п—т — & + 1) рп ak~ao (m-l-l) (m + 2)...(m + 6)g* Это можно записать иначе: п =п (1~^о) к и° (1 +<?/<>) (!+<?/,)... (1 +9^-1) ’ (3.3) (3-4) Где для сокращения записи использовано обозначение ^ = (/ + 6+ <?)/[(«+ 1) W]- (3.5)
198 Гл. VII. Нормальное приближение для биномиального распределения Воспользуемся теперь представлением (3.4) только для тех значе- ний k, для которых tk мало, скажем tk < 1/2. Из разложения Тейлора для логарифма (8.9) гл. II видно, что (1-^7.)/(1+^) = ^+-. (3.6) где опущенный член по абсолютной величине не превосходит t*. Таким образом, ak = aoe~(ta+--'+tk-^+---, (3.7) где многоточие соответствует члену, абсолютная величина кото- рого1) меньше, чем < k9l(npq)\ Далее, JL _1_/ _(l/2)fe(fe-l)+*(6+9) о -t- Ч Ф • • • “Г Ч-i ~ (п+1)р9 (3-8) Для простоты заменим правую часть (3.8) на k2/(2npq). При этом величина допускаемой погрешности меньше, чем 2k!(npq). Итак, если мы запишем ak = a.e-k2/M+\ (3.9) то член pfe, характеризующий погрешность приближения, удовле- творяет неравенству IР* I < k3l(tipqY + ZkHnpq). (3.10) Покажем теперь, что а0 = —й p^qn-™-----1 (3.11) 0 т\(п—т)\И yr2nnpq V ' что обобщает аналогичное соотношение (2.6) для симметричного слу- чая. В идеальном случае, когда р=т!п, оценка (3.11) является немедленным следствием формулы Стирлинга (9.1) гл. II. Непосред- ственное дифференцирование показывает, что средний член (3.11) достигает максимума при р^=т!п. При заданном т нужно рассмот- реть только те значения р, для которых выполнено (3.1), и тогда ми- нимум а0 достигается в одной из крайних точек, а именно для р=^ =т/ (п+1) или р^= (т+1)/ (п+1). Для этих значений р непосредст- венное использование формулы Стирлинга снова приводит к (3.11), только п заменяется на п+1. Следовательно, (3.11) справедливо для всех возможных значений р. Если для сокращения записи поло- жить h=\/^npq, (3.12) то из (3.9) вытекает соотношение ak~tm(kh), (3.13) £) Мы удовлетворимся очень грубыми оценками погрешности приближения
§ 3t Предельная теорема Муавра — Лапласа 199 но при условии, что k изменяется вместе © п таким образом, что -—►(). Итак, доказана следующая теорема. Теорема 1. Если и—> оо и k изменяется в интервале k<Knv причем /Q/n2-—^0, то соотношение (3.13) справедливо1) равномерно по k, т. е. для любого 8 > 0 « достаточно больших п 1—е < ak/[h\\ (kh)] < 1 + 8. (3.14) Пример. Рис. 3 иллюстрирует случай п=10 и /7=1/5, когда пр<7= 1,6. С учетом того, что п очень мало, приближение кажется поразительно хорошим. Для k—О, . . 6 вероятности b (k\ п, р) рав- Рис. 3. Нормальное приближение для биномиального распределения. Ступени чатая функция дает вероятности b(k; 10, 1/5) k успехов в 10 испытаниях Бернул- ли с р—1/5. Непрерывная кривая дает для каждого целого k соответствующее нормальное приближение. ны 0,1074, 0,2684, 0,3020, 0,2013, 0,0880,^ 0,0264, 0,0055. Соот- ветствующие приближения, согласно (3.13), равны 0,0904, 0,2307, 0,3154, 0,2307, 0,0904, 0,0189, 0,0021. ► Теорема 1 используется в основном для вывода приближений для вероятностей вида |3 [3—т P{a<S„<₽}=2 b(y;n,p) = 2 ак. (3.15) v=a k—a~ т х) Если k изменяется вместе с п так, что /г3/п2—>оо, то нормальное прибли- жение заменяется приближением другого вида, см, задачи 13 и 15.
200 Гл. VII. Нормальное приближение для биномиального распределения В области применимости теоремы 1 хорошее приближение получа- ется при замене ak на hn(kh). Последнее произведение можно интерпретировать как площадь прямоугольника высотой n(kh), основанием которого является интервал длиной h с центром в kh (см. рис. 3). Как обыйно, заменим площадь прямоугольника пло- щадью соответствующей области, заключенной между осью х и графиком функции п; известно, что получающаяся при этом по- грешность в пределе пренебрежимо мала при h—>0. Таким обра- зом, для целых а и Р получаем приближение Р {а< S„ 91 ((а—т + 1/2) h)-91 ((₽—т— 1/2) h). (3.16) Нормальное приближение в такой форме целесообразно исполь- зовать, когда h лишь относительно мало и требуется наилучшая воз- можная точность. Однако в окончательной формулировке пред- почтительно заменить аргументы в правой части (3.16) более прос- тыми выражениями (а—пр) h и z2= (Р—пр) h\ погрешность, по- лучающаяся при этом упрощении, очевидно, стремится к нулю при А-^0. Итак, доказана следующая основная теорема. Теорема 2. (Предельная теорема Муавра — Лапласа.) Для фик- сированных г) z-l и z2 при п->оо справедливо соотношение ^{np-\-z1V"npq^S,l^np-\-z2Vnpq} —>91(z2) —91 (zj. (3.17) Помимо большой теоретической важности эта теорема интересна тем, что оправдывает использование правой части (3.17) в качестве приближения для левой части. Из (3.10) легко получить хорошие оценки погрешности приближения, но мы не будем останавливать- ся на этом вопросе. Практические примеры можно найти в следую- щем параграфе. Предельное соотношение (3.17) принимает более приятный вид, если Sn заменить нормированным числом успехов S*, определяемым по формуле S* = (S„-np)/Kw (3.18) Это равносильно выбору Кnpq в качестве единицы измерения отклонения Sn от пр. В терминах случайных величин (гл. IX) пр будет называться математическим ожиданием, a npq диспер- сией случайной величины SA2 (квадратный корень Vnpq есть стан- дартное отклонение). Неравенство в левой части (3.17) эквива- лентно следующему: и поэтому (3.17) можно пе- реписать в виде Р {Z, < s: < z2\ — 91 (z2)-91 (zj. (3.19) 2) Из теоремы 1 видно, что это условие можно ослабить, См, также § 6 и задачи 14 и 16,
§4. Примеры 201 Как правило, мы будем использовать предельную теорему в этом виде. Из (3.19), в частности, следует, что для больших п вероят- ность, стоящая в левой части, практически не зависит от р. Это поз- воляет сравнивать случайные флуктуации в различных последова- тельностях испытаний Бернулли, просто относя их к нашим стан- дартным единицам. Замечание об остановке в произвольный момент времени. Необходимо от- метить, что наши предельные теоремы и приближенные формулы справедливы тогда, когда число п испытаний фиксировано заранее независимо от исхода испытаний. Если игрок имеет право остановить игру в благоприятный для него момент, то его общий выигрыш нельзя оценить при помощи нормаль- ного приближения, так как продолжительность игры теперь случайна. Для любого фиксированного п очень маловероятно, что велико, однако при большом числе испытаний даже самое маловероятное событие обязательно произойдет. Мы увидим, что в длительной игре S/J практически наверняка будет иметь последовательность максимумов порядка величины у 2 log log п (закон повторного логарифма, см. гл. VIII, 5). § 4. ПРИМЕРЫ а) Пусть р=1/2 и /г = 200. Рассмотрим Р {95 Sn 105}, т. е. вероятность того, что при 200 бросаниях моменты число выпаде- ний герба отличается от 100 не более чем на 5. Здесь h= 1/]/ 50= = 0,141421... относительно велико, и нужно быть внимательным при определении границ интервала. Использование (3.16) приво- дит к приближению Р {95 < Sn 105} 91 (5,5/0 —91 (—5,5//) = = 291 (0,7778...) — 1 =0,56331. Истинное значение вероятности равно 0,56325.... Малостью погреш- ности мы в основном обязаны симметричности распределения. б) Пусть /?= 1/10 и п = 500. Здесь h= 1/]/"45 = 0,14907... . Рассуждая, как и выше, получаем Р {50 С S„ < 55} 91 (5,5/i) —91 (- 0,5/0 = = 91 (5,5/0 + 91 (0,5/0 — 1 =0,3235... , ' в то время как истинное значение вероятности равно 0,3176... . Погрешность составляет около 2%. в) Вероятность того, что лежит в пределах пр +2 V'npq, приблизительно равна 91 (2) —91 (—2) = 0,9545; для пр ± 3 Vnpq соответствующая вероятность приближенно равна 0,9973. Удиви- тельно, в сколь узких границах с большой вероятностью лежат случайные флуктуации. Например, вероятность того, что при 106 бросаниях монеты число выпадений герба будет отличаться от среднего значения 500 000 более чем на 1000, меньше 0,0455.
202 Гл* VII» Нормальное приближение для биномиального распределения Таблица 2 Сравнение биномиального распределения при п=100, /7 = 0,3 и нормального приближения Число успехов Вероятность Нормальное приближение Погреш- ность в процентах 9<Sn< 11 0,000006 0,00003 +400 12< 14 0,00015 0,00033 + 100 15 17 0,00201 0,00283 +40 18 < Sn < 20 0,01430 0,01599 + 12 21<S„<23 0,05907 0,05895 0 24 < Sn < 26 0,14887 0,14447 —3 27<S„«c29 0,23794 0,23405 —2 31 < S„ < 33 0,23013 0,23405 +2 34 < Sre < 36 0,14086 0,14447 +з 37<S„<39 0,05889 0,05895 0 40 < S,, s' 42 0,01702 0,01599 —6 43<S„<45 0,00343 0,00283 —18 46«cS„<48 0,00049 0,00033 —33 49<Sn<51 0,00005 0,00003 —40 г) Пусть п~ 100 и /7=0,3. В табл. 2 приведен типичный пример (для относительно небольших п), показывающий, как изменяется точность нормального приближения при удалении интервала (а, (3) от центрального члена. д) Найдем число а, такое, что для больших п неравенство |S|^>a выполняется с вероятностью, близкой к 1/2. Для этого необходимо, чтобы 91 (а)— 9? (—а) = 1/2, или 91 (а) = 3/4. По таблицам для нормального распределения на- ходим а = 0,6745, и поэтому неравенства |S„—п/?| < 0,6745 Vnpq и |S„ — пр | > 0,6745 npq (4.1) приближенно равновероятны. В частности, вероятность того, что при п бросаниях монеты число выпадений герба лежит в преде- лах (1/2) п ± 0,337 Ки, приближенно равна 1/2, как и вероятность того, что при п бросаниях кости число выпадений одного очка лежит в интервале (1/6) п ± 0,251 п. е) Задача о конкуренции. Этот пример иллюстрирует практичес- кие применения формулы (3.17). Две конкурирующие железнодо- рожные компании имеют на участке между Чикаго и Лос-Анджелесом по одному поезду, которые отправляются и прибывают одновремен- но и оборудованы примерно одинаково. Предположим, что п пас-
§ 4. Примеры 203 сажиров выбирают поезд наугад и независимо друг от друга, так что число пассажиров в каждом поезде есть результат п испытаний Бер- нулли с /?=1/2. Если число мест в поезде s<.n, то с положитель- ной вероятностью в нем окажется больше s пассажиров и всем мест не хватит. Используя приближение (3.17), находим ((2s—«)/!/«)• (4-2) Если s столь велико, что f (s)<0,01, то число мест будет достаточным в 99 случаях из 100. Вообще, компания может установить произволь- ный уровень риска а и определить s из условия /(s)<jx. Для этого достаточно положить s>(l/2)(n4-^/n), (4.3) где/а — корень уравнения а=1—91 (^), который можно найти по таблицам. Например, если п = 1000 и а = 0,01, то ~ 2,33 и до- статочно s —537 мест. Если обе компании примут уровень риска а = 0,01, то два поезда будут иметь в общей сложности 1074 места, из которых 74 будут пустыми. Потери из-за конкуренции (или случайных флуктуаций) поразительно малы. Аналогично 514 мест было бы достаточно в 80% всех случаев и 549 мест—в 999 из 1000 случаев. Подобные соображения применимы и в других работах об обслу- живании с конкуренцией. Например, если т кинотеатров сопер- ничают из-за одних и тех же п зрителей, то для вероятности успеха для каждого кинотеатра следует положить р = 1/т и (4.3) нужно заменить неравенством m~1[n-[-ta]/'n (т— 1)]. Общее число пустых мест при такой системе равно ms—п ж ta Кп (т—1). Для а = 0,01, п— 1000 и т = 2, 3, 4, 5 это число соответственно приближенно равно 74, 105, 126 и 147. Потери из-за конкуренции снова малы. ж) Случайные цифры. В примере гл. 11,3,а) мы рассмотрели /2= 1200 испытаний с р = 0,3024 и частотой успехов 0,3142. Откло- нение частоты от вероятности равно е = 0,0118. Далее, р {I S„/«~Р I > е} = р {I Sn—np\> en) ж да Р {| S„ - пр | > 0,880 Vnpq} да 2 (1 —91 (0,88)) да 0,379. Это означает, что приблизительно в 38 из 100 подобных случаев час- тота успехов отклоняется от р больше, чем в нашем примере. з) Выборка. В некотором обществе часть р людей курит. Число р неизвестно, и для его определения производится выборка с возвра- щением. Желательно найти р с погрешностью, не превосходящей 0,005. Каким должен быть объем выборки п? Обозначим долю курящих в выборке через рг. Ясно, что, каким ни был объем выборки, нельзя быть уверенным, что \рг—рКО,005, ибо может случиться, что выборка будет состоять только из куря- щих. Лучшее, чего можно добитьсял это сделать маловероятным со-
204 Гл, VII. Нормальное приближение для биномиального распределения бытие «величина погрешности больше заданного значения 0,005». С этой целью установим произвольный доверительный уровень а, например а=0,95, и выберем п настолько большим, чтобы вероят- ность события \р'—р|<0,005 была не меньше а. Поскольку np,J можно интерпретировать как число успехов в п испытаниях, имеем Р{|р' —р| <0,005} = Р{| S„—пр | < 0,005п}, (4.4) и мы хотим выбрать п столь большим, чтобы эта вероятность была не меньше а. Сначала по таблицам находим число га, для которого 91 (га)—91 (—га) = а. Затем, используя нормальное приближение, необходимо выбрать п столь большим, что 0,005 или п>40 000р^г2а. Правая часть последнего неравенства содержит неизвестную вероятность р, но при любых обстоятельствах 1/4, и поэтому объем выборки п^ 10 000^ будет достаточным. Для доверительного уровня а = 0,95 находим га = 1,960, и по- этому объем выборки п = 40 000 вполне достаточен. Осуществить выборку такого объема достаточно сложно, но требование | р' — р |< < 0,005 является чрезвычайно сильным. Если бы мы потребовали лишь, что \р' — р| < 0,01, то достаточен был бы объем выборки 10 000 (при том же доверительном уровне). Так называемая четы- рехпроцентная точность означает, что \р' — р|< 0,045, и в этом случае объем выборки равен лишь 475: в среднем только 5 из 100 случайных выборок такого объема дадут оценку с большей погреш- ностью. (На практике обычно трудно бывает получить представи- тельную выборку любого объема.) ► § 5. СВЯЗЬ С ПУАССОНОВСКИМ ПРИБЛИЖЕНИЕМ Ошибка нормального приближения мала, если npq велико. С другой стороны, при больших п и малых р вероятности b(k; п, р) будут близки к пуассоновским вероятностям p(k; X) с X—пр. При малых X можно пользоваться только пуассоновским приближением, но при больших X возможно применение как пуассоновского, так и нормального приближений. Отсюда следует, что при больших зна- чениях %, видимо, можно приближать распределение Пуассона нор- мальным распределением, и в примере гл. X, 1, в) мы увидим, что это действительно так (см. также задачу 9). Здесь мы ограничимся иллюстрацией этого утверждения на одном численном и на одном практическом примере. Примеры, а) Распределение Пуассона с Х,= 100 приписывает множеству целых чисел а, а+1, . . b вероятность Р(а, Ъ)=р(а\ 100) + р (а+1; 100)+ ... +р(Ь\ 100). Это распределение Пуассона можно рассматривать как приближение для биномиального распределения с п=100 000 000 и р^= 10~6. Тог- да пр^ЮО, поэтому естественно аппроксимировать это биномиаль-
$ 5, Связь с пуассоновским приближением 205 ное распределение нормальным хотя бы для значений, близких к центральному члену 100. Но это означает, что вероятность Р(а, Ъ) близка к разности 91 ((&—99,5)/10)—91 ((а—100,5)/10). О степени приближения можно судить по следующей таблице. Т очное значение Нормальное приближение Р (85, 90) 0,11384 0,11049 Р (90, 95) 0,18485 0,17950 Р (95, 105) 0,41763 0,41768 Р (90, ПО) 0,70652 0,70628 Р (НО, 115) 0,10738 0,11049 Р (115, 120) 0,05323 0,05335 б) Задача о телефонных линиях. Следующая задача с некоторыми упрощениями взята из практики х). Телефонная станция А должна соединить 2000 абонентов с соседней станцией В, Было бы слишком дорого и бессмысленно проводить 2000 линий из А в В. Достаточно сделать число линий N настолько большим, чтобы при обычных ус- ловиях только на один из каждых ста вызовов не сразу находилась свободная линия. Предположим, что в течение наиболее напряжен- ного часа дня каждому абоненту требуется связь с В в среднем на 2 минуты. Мы можем сравнить положение в любой фиксированный момент этого часа с группой из 2000 испытаний каждое с вероят- ностью р = 1/30 того, что потребуется линия. При обычных условиях можно считать эти испытания независимыми (хотя это перестает быть верным, когда такие события, как неожиданный ливень или землетрясение, заставляют многих людей вызывать такси или зво- нить в местную газету; тогда эта теория неприменима и линии будут перегружены). Итак, имеем 2000 испытаний Бернулли с р = 1/30, и нужно найти такое наименьшее число N, при котором вероятность более N «успехов» меньше 0,01; в наших обозначениях Р {S2ooo^= >Л/}<0,01. При пуассоновском приближении следует взять %=2000/30^ ^66,67. По таблицам находим, что вероятность не менее 87 успехов приближенно равна 0,0097, а вероятность 86 или более успехов — примерно 0,013. Это означает, что было бы достаточно 87 линий. При использовании нормального приближения сначала найдем ко- 9 Molina Е.С., Probability in engineering, Electrical Engineering, 54 (1935), 423—427;-Bell Telephone System Technical Publications Monograph В-854. В этих работах задача решается используемым нами методом Пуассона, более удобным для инженеров»
206 Гл. VII. Нормальное приближение для биномиального распределения рень х уравнения 1 — 5Л(х)=0, 01, который равен х—2,327. Далее, должно выполняться неравенство (^_ 1/2—пр? >2,327. Поскольку /2=2000 и р^=1/30, отсюда получается Af>67,17+ + (2,327) (8,027)^85,8. Таким образом, при использовании нор- мального приближения вытекало бы, что достаточно 86 линий. Результаты двух решений практически совпадают. Кроме того, из них можно извлечь и другую полезную информацию. Например, может показаться, что число линий будет меньше, если 2000 абонен- тов разбить на две группы по 1000 в каждой и уже для этих двух групп раздельно провести линии между Аи В. Однако, пользуясь описанным выше методом, найдем, что в действительности допол- нительно потребуется 10 линий, так что первоначальный подход пр едпочтител ьней. > § 6*). БОЛЬШИЕ ОТКЛОНЕНИЯ Теорема Муавра — Лапласа описывает асимптотическое поведе- ние вероятности P{zi<S>Cz2} при фиксированных и г2. Из ее до- казательства видно, что теорема применима и в случае, когда ?! и г2 могут меняться вместе с /г, причем, возможно, ^->оо при условии, что рост происходит достаточно медленно. В этом случае обе части (3.17) стремятся к нулю и теорема содержательна только тогда, ког- да отношение обеих частей стремится к единице. Следующая теоре- ма показывает, при каких условиях это верно. Для упрощения фор- мулировки двойное неравенство гх<8^<;г2 заменим неравенством S^><2i. Возможность такой замены обосновывается следующей лем- мой, в которой показано, что пригх-->оо верхний предел ?2не играет никакой роли. Лемма. Если хп->оо, то для любого фиксированного1) т] > 0 P{S*>x„ + t]}/P{S*>x„}->0, (6-1) или {pK<s*<^+t]}~p{s;;>u. (6 2) Иначе говоря, если S* превосходит хп, то скорее всего S* очень близко к хп, и в этом предельном соотношении большие значения S* не играют никакой роли. *) Теорема этого параграфа полезна, но в этом томе она применяется лишь в гл. VII,4 и в гл. VIII,5. х) Из доказательства будет видно, что достаточно условия хпх\—> оо. Более сильный и интересный вариант см. в задаче 18.
$ 7. Задачи 207 Доказательство. Используя обозначение (3.2), для биномиаль- ного распределения имеем р {S* > хп} = 2 arn+v, P{S*> 2 aSn+v, (6.3) v=0 v=0 где rn и sn— целые числа, которые отличаются соответственно от хп |/ npq и (%п + ц)И npq не более чем на единицу. Далее, из (3.4) очевидно, что для больших п ak+ilak < 1 —Ptk < 1 —Уп < e~kln> (6Л) и поэтому aSn+vlarn+v < Гп) Гп1п < <?~(1/2) ^Хп Dq- (6-5) По предположению хп—>оо, и, следовательно, члены второго ряда в (6.3) становятся пренебрежимо малыми по сравнению с соответ- ствующими членами первого ряда. ► Теперь мы готовы обобщить предельную теорему следующим образом. Теорема. Если хп—> со так, что х^/У п—>0, то p{s;?>u~i-9i(%j. (6.6) В силу (1.7) асимптотическое соотношение (6.6) полностью эквива- лентно следующему: Р {S‘ > хп\ ~ (1 /]/"2л) (1/х„) (6.7) Доказательство. В силу предыдущей леммы и теоремы 1 § 3 имеем p{s,;>x„}~ 2 hn(kh), (6.8) где rn — целое число, такое, что | rnh—хп | </i. Следовательно, сумма в правой части (6.8) лежит между 1—91 (хп— 2/1) и 1—97 (xn + 2h). Используя (1.7), для разности этих двух величин получаем 97 (хп + 2/0—97 (х^-2/i) < 4/ш (хп — 2h) -> 0, (6.9) так что сумма в (6.8) ~ \—97 (х„), что и утверждалось. & Дальнейшие обобщения см. в задачах 14 и 16. § 7. ЗАДАЧИ 1. Обобщая (1.7), доказать, что 1-31 (х)~ /1—L+H_i±5+_.,.+ У 2л {х х6 х^ х1 (7.1)
208 Гл. VII. Нормальное приближение для биномиального распределения и что при х > 0 правая часть превосходит 1—9? (х), если k четно, и оказы- вается меньше 1—9? (х), если k нечетно. 2. Доказать, что для произвольной постоянной а > 0 при х—> оо спра- ведливо соотношение (1-ЭТ (х + б7/х))/(1-ЭД (х)) —>£-*. (7.2) 3. Найти вероятность того, что среди 10 000 случайных цифр цифра 7 появится не более 968 раз. 4. Найти приближенное значение вероятности того, что число выпадений единицы при 12 000 бросаний кости лежит между 1900 и 2150. 5. Найти число /?, при котором с вероятностью 0,5 число выпадений герба при 1000 бросаниях монеты будет лежать между 490 и k. 6. Для определения доли женщин f в некотором обществе производится вы- борка. Определить объем выборки, при котором с вероятностью, не меньшей 0,99, погрешность составит менее 0,005. 7. При 10 000 бросаниях монеты герб появлялся 5400 раз. Есть ли осно- вания считать, что монета несимметрична? 8. Найти приближение для максимальной вероятности следующего три- номиального распределения: 9. Нормальное приближение для распределения Пуассона. Используя формулу Стирлинга, показать, что для фиксированных а < Р при К—> оо _ 2 _ Р (k> Ь) — эг (0) (а)« (7-3) K + aV К< k< К К 10. Нормальное приближение для гипергеометрического распределения. Пусть п, т, k — положительные целые числа, которые стремятся к бесконечности так, что г J п т 1 ri. л „ лх —i------>/, —j------->р, —:------->q> h[k — rp} —>х, (7.4) n+m n-\-m n-{-m 1 4 где h= l/]/r(n4-m) pqt (1 — t). Доказать, что <7'5> Указание. Лучше использовать нормальное приближение для биномиаль- ного распределения, а не формулу Стирлинга. 11. Нормальное распределение и серии в комбинаторных задачах1). Форму- ла (11.19) гл. II дает вероятность иметь ровно k серий альф при размещении п альф и т бет. Эта вероятность равна (п—1\ /m+п k Д п ) ’ (76) Пусть п—>00, т—>оо так, что соотношения (7.4) выполнены. При фикси- рованных а < р вероятность того, что число серий альф лежит между nq + aq V рп и nq-\-fiq У рп, стремится к 9? (₽)—9? (а)- х) Wald A., Wolfowitz J., On a test whether two samples are from the same po- pulation, Ann. Math. Statist., 11(1940), 147—162. Более общие результаты см. в статье Mood А. М. The distribution theory of runs, там же, 367—392,
$ 7. Задачи 209 12. Новый вывод закона больших чисел. Вывести закон больших чисел, рассмотренный в § 4 гл. VI, из предельной теоремы Муавра — Лапласа. Предельные теоремы для вероятностей больших отклонений 13. Используя обозначения § 3, показать, что если k изменяется вместе е п так, что > 0, то ak=b(k-{-m\ п, р) ~ hft (kh) e~(p~q} k3hi/Q t h—1/У npq. (7.7) Это обобщение теоремы 1 § 3. 14. Используя результат предыдущей задачи и лемму из § 6, доказать, что верна следующая теорема. Теорема. Если хп изменяется вместе с п так, что Хп/п —> 0, но хп —> оо, то Р {S* > х„} ~ [1-9? (x„)J e~{P~q} х%Упр1>, (7.8) 15. Обобщение задачи 13. Положим f (X) = У hv~2xV = x*h x*h* + ’ •' ’ (7-9) v=3 где h=l/y npq. Если k изменяется вместе с п так, что k/п—> 0, то ak~htl (kh)-e-fW». (7.10) {Если ffi/ri2, —>- 0, то этот результат сводится к теореме 3 § 1; если k^/rft —► 0, то получаем (7.7); если Z?5/^4—>0, то получается (7.7) с добавлением в пока- затель члена четвертого порядка, и т. д.] 16. Обобщение задачи 14. Если хп изменяется вместе с п так, что хп—* оо, но Хп/У п —► о, ™ Р {S* > хп} - [1 — SR (x„)] e~f^\ (7.11) Если Хп/п—>0, то этот результат сводится к (7.8). При можно заме- нить f (х„/2) многочленом четвертой степени из правой части (7.9) и т. д. 17. Если р > q, то Р {S„ > х} > Р {Sj <—х} для всех больших х. Ука- зание. Использовать результат задачи 15. 18. Показать, что при хп—> оо и хп/У~п—►() справедливо соотношение Р{хп <$п < хп + а/хп} ~ (1— е~а) P{S* > xj, (7.12) Словесно это выражается так: условная вероятность события {S*2 хп-\-а]хп} при условии, что Sn > хп, стремится к е~а. (Более слабый вариант этой тео- ремы был доказан А. Я. Хинчиным1).) х) Khintchin A. Uber emen Grenzwertsatz der Wahrscbeinlichkeitsrechnung, Math. Annalen, 10(1929), 745—752,— Прим, перев,
ГЛАВА VIII *) НЕОГРАНИЧЕННЫЕ ПОСЛЕДОВАТЕЛЬНОСТИ ИСПЫТАНИЙ БЕРНУЛЛИ В этой главе обсуждаются некоторые свойства случайности и важный закон повторного логарифма для испытаний Бернулли. Различные аспекты теории случайных флуктуаций, связанных о испытаниями Бернулли (по крайней мере для р —1/2), рассмотрены в гл. III. § 1. БЕСКОНЕЧНЫЕ ПОСЛЕДОВАТЕЛЬНОСТИ ИСПЫТАНИЙ В предыдущей главе мы имели дело с вероятностями, связанны- ми с п испытаниями Бернулли, и изучали их асимптотическое пове- дение при п->оо. Обратимся теперь к более общему типу задач, в которых события не могут быть определены в конечном пространстве элементарных событий. Пример. Задача о сериях. Пусть аир — положительные целые числа. Рассмотрим какую-нибудь, вообще говоря, неограниченную последовательность испытаний Бернулли, например последова- тельность бросаний монеты или кости. Предположим, что Павел поспорил с Петром о том, что серия из а последовательных успехов появится раньше, чем серия из р последовательных неудач. Интуи- тивно ясно, что означает событие «Павел выиграл», но нужно пом- нить, что в математической теории событие — это «множество эле- ментарных событий» и оно не имеет смысла, пока не определено со- ответствующее пространство элементарных событий. Модель с ко- нечным числом испытаний для наших целей недостаточна, но эта трудность преодолевается простым переходом к пределу. После п испытаний Петр либо выиграл, либо проиграл, либо игра осталась незаконченной. Пусть соответствующие вероятности будут хп% Уп> ?п (*п+Уп+гп = 1). При увеличении числа испытаний п вероят- ность ничейного результата zn может только убывать, а хп й ynt очевидно, возрастают. Следовательно, существуют пределы х=* = limxn,r/=limz/n иг=Пшгп. Никто не[усомнится в том, что эти пре- делы можно назвать вероятностями того, что в конце концов Петр или выиграет, или проиграет, или игра закончится вничью. Однако *) Эта глава непосредственно не связана с материалом последующих глав и может быть опущена при первом чтении*
£ 1. Бесконечные последовательности испытаний 211 Соответствующие три события определены лишь в пространстве эле- ментарных событий, построенном по бесконечным последовательнос- тям испытаний, и это пространство не является дискретным. Этот пример был приведен только в качестве иллюстрации. Численные вначения хп, уп, zn нас пока не интересуют. Мы вернемся к их вычислению в примере гл. XIII,8,б). Пределы х, у, z можно найти более простым мето- дом, который применим и в более общих случаях. Этот метод мы изложим Здесь из-за его важности и того интереса, который он представляет сам по себе. Пусть А—событие, состоящее в том, что серия из а последовательных успехов появится раньше, чем серия из [3 последовательных неудач. Событие А означает выигрыш Павла и х = Р (Л). Если и и v — условные вероятности собы- тия А при условии, что первое испытание закончилось соответственно успехом или неудачей, то x = pu-{-qv [см. формулу (1.8) гл. V]. Сначала предположим, что первое испытание закончилось успехом. В этом случае событие А может произойти в результате а взаимно исключающихся исходов: 1) следующие а—1 испытаний закончатся успехами; вероятность этого равна ра-1. 2) Пер- вая неудача произойдет в v-м испытании, где 2^v^a. Обозначим это собы- тие через Ну. Тогда Р (Ну} = pv~'2q и Р {Л | Hv} = v. Следовательно (еще раз используя формулу полной вероятности), получаем и = pa-i-\-qv (1 р . + рос-2) = ра-1_|_у (1 —ра-1), (1Д) Если первое испытание закончилось неудачей, то аналогичные рассужде- ния приводят к выражению v — pu (1 +</+ ... + 7,в~2) = « (1 —0-2) Итак, для неизвестных величин и и v имеем два уравнения и для x = pu-\-qv находим х = (l_^)/(pa-i + ^-i__pa-i^-i)t (13) Чтобы получить у, нужно лишь поменять местами р и q, а и р. Итак, y = q$~i (1— ра)/(ра-1 + ^-1—ра-1^1), (1.4) Поскольку х^-у=\, имеем z=0; вероятность ничьей равна нулю. Например, при бросании монеты (р=1/2) вероятность того, что серия из двух гербов появится раньше, чем серия из трех решеток, равна 0,7; два последо- вательных герба появляются раньше четырех последовательных решеток с ве- роятностью 5/6, три последовательных герба появляются раньше четырех последо- вательных решеток с вероятностью 15/22. При бросании кости вероятность того, что два последовательных выпадения единицы произойдут раньше, чем пять по- следовательных ее невыпадений, равна 0,1753, и т. д. В этом томе мы ограничиваемся теорией дискретных пространств элементарных событий, что значительно уменьшает изящество мате- матических рассуждений. В общей теории п испытаний Бернулли рассматриваются лишь как начало бесконечной последовательности испытаний. В этом случае элементарным событием является беско- нечная последовательность букв У и Я и пространство элементарных Событий состоит из всех таких последовательностей. Конечная после- довательность, например УУНУ, означает совокупность всех эле- ментарных событий с таким началом, т. е. составное событие, сос- тоящее в том, что в бесконечной последовательности испытаний пер- вые четыре исхода соответственно дадут У, У, Я, У. В бесконечных пространствах элементарных событий рассмотренную выше игру
212 Гл. VI11. Неограниченные последовательности испытаний Бернулли можно интерпретировать без предельных переходов. Возьмем про- извольное элементарное событие, т. е. любую последовательность вида УУНУНН.... В ней может быть серия из а последовательных успехов У, а может и не быть такой серии. Если такая серия есть, то она может произойти до серии из [3 последовательных неудач или не произойти до нее. Таким образом, мы разбиваем все элементарные события на три класса, представляющие собой события «Петр вы- играл», «Петр проиграл», «нет никакого результата». Их вероятнос- тями являются числа х, у, z, полученные выше. Единственным зат- руднением является то, что это пространство элементарных событий недискретно, а мы еще не определяли вероятности для общих прост- ранств элементарных событий. Заметим, что мы обсуждаем сейчас скорее вопросы терминологии, чем действительные трудности. В нашем примере надлежащее опре- деление или интерпретация числа х не вызывает вопросов. Трудность состоит лишь в том, что, желая быть последовательным, мы должны решить, говорить ли о х как о «пределе вероятностей хп того, что Петр победил после п испытаний», или говорить о событии «Петр победил», которое соответствует недискретному пространству эле- ментарных событий. Мы предлагаем поступать обоими способами. Для упрощения терминологии будем говорить о событиях даже тогда, когда они определены в бесконечных пространствах элемен- тарных событий. Однако для точности теоремы будут формулиро- ваться в терминах конечных пространств элементарных событий и предельных переходов. События, которые изучаются в этой главе, как и предыдущий пример, обладают следующей особенностью. Событие «Петр победил» хотя и определено в бесконечном пространстве, является объедине- нием событий «Петр победил после п испытаний (п=1, 2,...)», каж- дое из которых зависит только от конечного числа испытаний. Ис- комая вероятность х есть предел монотонной последовательности вероятностей хп, которые зависят только от конечного числа испы- таний. Нам не требуется теория, идущая дальше модели п испыта- ний Бернулли, мы лишь берем на себя смелость упрощать неуклю- жие выражения1), называя некоторые числа вероятностями, а не пользуясь термином «пределы вероятностей». § 2. СИСТЕМЫ ИГРЫ Печальный опыт многих игроков учит нас, что никакая система игры не увеличивает шансы игрока на выигрыш. Если теория ве- г) Для читателя, знакомого с общей теорией меры, ситуацию можно описать следующим образом. Мы рассматриваем только те события, которые либо зависят от конечного числа испытаний, либо являются пределами монотонных последова- тельностей таких событий. Мы вычисляем эти простые пределы вероятностей, и для этого нам, очевидно, не нужна теория меры. Но только общая теория меры показывает, что наши пределы не зависят от способа перехода к пределу и яв- ляются вполне аддитивными функциями множеств*
§2. Системы игры 213 роятностей правильно отображает жизнь, то этому опыту должно соответствовать некое доказуемое утверждение. Для определенности рассмотрим, вообще говоря, неограничен- ную последовательность испытаний Бернулли и предположим, что перед каждым испытанием игрок может выбрать, участвует ли он в игре или нет. «Система» представляет собой фиксированные правила, согласно которым выбираются те испытания, при которых игрок делает ставку. Например, игрок может включаться в игру при каж- дом седьмом испытании или после каждого вступления в игру ждать, пока 7 раз не появится герб. Он может вступать в игру толь- ко после появления серии из 13 гербов или первый раз включиться в игру после появления первого герба, второй раз — после первой серии из двух последовательных гербов и вообще k-н раз — сразу после появления k последовательных гербов. В последнем случае он будет делать ставки все реже и реже. Нам не нужно рассматри- вать размеры ставок в отдельных испытаниях, мы хотим показать, Что не существует «системы», изменяющей положение игрока, и что результат будет тот же, как если бы он постоянно участвовал в игре. Подразумевается, что это утверждение можно доказать лишь для систем в обычном смысле, когда игрок не знает результата следую- щего испытания (вопрос о том, существует или нет предвидение, нас не интересует). Необходимо также признать, что правило «уходи домой после трех проигрышей» меняет положение, но мы исключим Такие неинтересные системы. Определим систему как множество ° фиксированных правил, ко- торые для каждого испытания однозначно определяют, вступать в игру или нет. Перед k-м испытанием это решение может зависеть от исхода первых k—1 испытаний, но не зависит от исхода k-го, (&+1)-го, (k+ty-го, ... испытаний. Наконец, правила должны обес- печивать бесконечное продолжение игры. Поскольку множество пра- вил фиксировано, событие «в п испытаниях игрок делал ставки более чем г раз» корректно определено и можно найти его вероятность. Из последнего предположения в определении системы вытекает, что для любого г эта вероятность стремится к 1 при /г->оо. Сформулируем теперь нашу основную теорему о том, что при любой системе последовательные испытания, когда игрок делает став- ку, образуют последовательность испытаний Бернулли с неизменной вероятностью успеха. При соответствующем изменении формули- ровки эта теорема справедлива для всех видов независимых испыта- ний. Последовательность испытаний, когда игрок делает ставку, яв- ляется точной копией первоначальных испытаний, так что никакая система не может повлиять на удачу игрока. Важность это- го утверждения впервые осознал Мизес, который ввел в качестве основной аксиомы невозможность успешной системы игры. Приве- денная здесь формулировка и доказательство принадлежат Дубу х). Для простоты предположим, что р=1/2. х) Doob J. L., Note on probability, Annals of Mathematics, 37 (1936), 363—367,
214 Гл. VIII. Н еограниченные последовательности испытаний Бернулли Пусть Ah — событие «первое вступление в игру происходит при /?-м испытании». Из определения системы вытекает, что при /г->оо вероятность того, что первая ставка была сделана до /г-го испыта* ния, стремится к 1. Это означает, что' Р{Л}+Р{Д2}+ ... + Р{Лп}->1, или 2РМь} = 1. (2.1) Далее, пусть Вк — событие «при &-м испытании выпал герб» и В — событие «при первом вступлении в игру выпал герб». Тогда собы- тие В есть объединение взаимно исключающих друг друга событий А2В2, А3В3) .... Далее, Ak зависит только от исхода первых k—1 испытаний, a Bk зависит только от k-ro испытания. Следова- тельно, Ak и Bk независимы и Р {AkBA = Р {ЛЗ Р {ВЗ = (1/2) PMJ. Итак, Р {В} = 2 Р {ДА} = (1/2) 2 Р {А?} = (1/2)- Отсюда вытекает, что при нашей системе вероятность выпадения герба при первом вступлении в игру равна 1/2 и то же самое верно и для каждого из последующих вступлений в игру. Остается показать, что моменты вступления в игру стохастически независимы. Это означает, что вероятность выпадения герба как при первом, так и при втором вступлении в игру должна равняться 1/4 (и аналогично для всех других комбинаций, а также для после- дующих вступлений в игру). Для .проверки этого утверждения обозначим через A*k событие, состоящее в том, что второе вступле- ние в игру произошло на k-м испытании. Пусть Е—событие «при первых двух вступлениях в игру выпадали гербы»; оно является объединением всех событий AjBjA*kBk, где /<& (если j^k, то Aj и Ак несовместны и Л;-Л^ = 0). Следовательно, Р{£} = 2 2 Р{А}-В^Вк}. (2.2) /=1k=j+1 Как и ранее, видим, что при фиксированных / и k > / события Bh (герб в А-м испытании) и AjBjAk (которое зависит только от резуль- татов первых k—1 испытаний) независимы. Поэтому Р{£}= (1/2)2 2 Р{ядлу = /=1/г=/+1 J J = (i/2) 2рМА-} 2 P{4UW (2-3) /=1 k=j+l (см. формулу (1.8) гл. V). Далее, когда бы ни произошло первое вступление в игру и каков бы ни был его исход, игра, безусловно, продолжается, т. е. рано или поздно произойдет второе вступление в игру. Это означает, что при заданном событии AjBj, таком, что Р{Л7ВД>0, условные вероятности вступления в игру на k-м иб пытании в сумме должны давать единицу. Следовательно, суммй
fi3. Леммы Борем—Кантелли 215 второго ряда в (2.3) равна единице. Раньше мы видели, что £Р{Л jB7-}=l/2. Итак, Р {£}—1/4, что и утверждалось. Аналогич- ные рассуждения применимы для любых комбинаций испытаний. Заметим, что положение будет другим, если игроку разрешено изменять размер ставки. В этом случае существуют выигрышные стратегии и результат игры зависит от выбора стратегии. Мы вер- немся к этому вопросу в гл. XIV, 2. § 3. ЛЕММЫ БОРЕЛЯ — КАНТЕЛЛИ Две простые леммы о бесконечных последовательностях испыта- ний используются столь часто, что заслуживают особого внима- ния. Мы сформулируем их для испытаний Бернулли, но они при- менимы и в более общем случае. Снова рассмотрим бесконечную последовательность испытаний Бернулли. Пусть Af, А2,...— бесконечная последовательность со- бытий, каждое из которых зависит лишь от конечного числа испыта- ний, иначе говоря, мы предполагаем, что существует целое число nk, такое, что Ak является событием из пространства первых nh испытаний Бернулли. Положим (3.1) (Например, Ak может быть событием, состоящим в том, что 2&-е испытание завершает серию из по крайней мере k последовательных успехов. Тогда nh=2k и ah^= pk.) Для каждой бесконечной последовательности букв У и Н можно установить, осуществилось ли 0, 1,2,... или бесконечно много собы- тий {Aft}. Это означает, что имеет смысл говорить о событии (7Г, состоящем в том, что в бесконечной последовательности испытаний осуществилось более г событий {Ak}, а также о событии t/ro, сос- тоящем в том, что произошло бесконечно много событий из совокуп- ности {Afe}. Событие Ur определено только в бесконечном прост- ранстве элементарных событий, и его вероятность есть предел ве- роятности Р{иПчГ} того, что в результате п испытаний среди собы- тий {Afe} произошло более г событий. Наконец, Р s=lim Р этот предел существует, так как Р {Ur} убывает при возрастании г. Лемма Х^Если ряд 2^ сходится, то с вероятностью единица произойдет только конечное число событий Ак. Точнее, утверждается, что P{t/r}<8 для достаточно больших г, или: для любого 8>0 существует целое число г, такое, что вероятность осуществления при п испытаниях одного или более событий Ar+i, Аг+§, ... меньше & для всех п. Доказательство. Выберем г так, что аг+1 + аг+2+ • • • Cs; в силу сходимости ряда 2^ это возможно. Не ограничивая общности,
216 Гл. У11Г Неограниченные последовательности испытаний Бернулли можем предполагать, что Ак упорядочены таким образом, что . Пусть N—наибольший индекс, при котором Тогда Лп .. , AN определены в пространстве п испытаний, и лемма утверждает, что вероятность осуществления одного или нескольких событий Лг+1, Лг+2, ... AN меньше 8. Это верно, так как, согласно основному неравенству (7.6) гл. I, имеем Р Мг+1 U Ar+2 U ... U Ду} аг+1 + аг+2 + ... + #v^8, (3-2) что и утверждалось. ► Удовлетворительное обращение этой леммы известно только в частном случае взаимно независимых Ак. Такое положение возни- кает, когда испытания разбиты на неперекрывающиеся группы и Ак зависит только от испытаний £-й группы (например, Ак может быть событием, состоящим в том, что в £-й тысяче испытаний про- изошло более 600 успехов). Лемма 2. Если события Ак взаимно независимы и ряд ^ак рас- ходится, то с вероятностью единица осуществится бесконечно много событий Ак. Иначе говоря, для любого г вероятность того, что в п испытаниях произойдет более чем г событий Ак, стремится к 1 при /г->оо. Доказательство. Предположим противное. Тогда существует п, такое, что с положительной вероятностью и ни одно событие Ak, где k>n, не произойдет. Однако « < О — а„) (1 — ап+1) ... (1 — ап+г), (3.3) так как произведение в правой части равно вероятности того, что события Ак, где n^k^n + г, не произойдут. Поскольку 1 —х^е~х, произведение в правой части не превосходит е~^ап+-• -+ап+г\ но сумма в показателе может быть сделана сколь угодно большой за счет выбора достаточно больших г. Итак, ц = 0, что противоречит предположению. ► Примеры, а) Чему равна вероятность того, что в последователь- ности испытаний Бернулли комбинация УНУ появится бесконечное число раз? Пусть Ак — событие, состоящее в том, что в результате £-го, &+1-го и (&+2)-го испытаний получилась комбинация УНУ. События Ak не являются взаимно независимыми, но последователь- ность Лх, Л4, Л7, Л10,... содержит только взаимно независимые собы- тия (поскольку никакие два из них не зависят от исхода одного и того же испытания). Так Kaxah=p2q не зависит от ряд ai+a4+a7+... расходится, и поэтому с вероятностью единица комбинация УНУ осуществляется бесконечное число раз. Аналогичные рассужде- ния, очевидно, применимы для произвольной комбинации любой длины.
§ 4. Усиленный закон больших чисел 217 б) Книги, написанные путем бросания монеты. Рассмотрим, например, фразу «вероятность — это забавная штука», записанную в азбуке Морзе в виде конечной последовательности точек и тире. Если мы вместо точки напишем Г и вместо тире — Р, то эта фраза примет вид конечной последовательности из гербов и решеток. Из предыдущего примера следует, что при длительном бросании моне- ты рано или поздно наверняка получится заданная фраза и это повторится бесконечное число раз. Кстати, в записи результатов длительных бросаний монеты должна содержаться закодированная в азбуке Морзе любая мыслимая книга от «Гамлета» до восьми- значных логарифмических таблиц. Предлагалось научить большую группу обезьян наугад колотить по клавишам пишущих машинок, надеясь в конце концов получить великие литературные произве- дения. Используя для этой цели монету, можно не тратиться на обучение и корм и предоставить обезьянам заниматься своими обезьяньими делами. § 4. УСИЛЕННЫЙ ЗАКОН БОЛЬШИХ ЧИСЕЛ Интуитивное понятие вероятности основывается на представле- нии о правильности следующего утверждения: если Sn — число успехов в первых п испытаниях последовательности испытаний Бер- нулли, то Sn/n-^p. (4.1) В абстрактной теории это не может быть верным для каждой после- довательности испытаний. Действительно, наше пространство эле- ментарных событий содержит элементарное событие, представляю- щее собой реализацию логической возможности появления беско- нечной последовательности только одних успехов, и для этого собы- тия Sn/n=l. Однако можно показать, что (4.1) выполняется с ве- роятностью 1, поэтому случаи, когда (4.1) не выполняется, яв- ляются исключением, которым можно пренебречь. Заметим, что мы рассматриваем сейчас утверждение намного бо- лее сильное, чем закон больших чисел (4.1) гл. VI. Последний ут- верждает, что для любого достаточно большого фиксированного п среднее S/п скорее всего близко к р, но он ничего не говорит о том, должно ли отношение Sn/n оставаться близким к р при увеличении числа испытаний. Обычный закон больших чисел оставляет откры- той возможность того, что в п дополнительных испытаний осуще- ствится хотя бы одно из событий k'1 S*<p—8, где n<k^2n. Ве- роятность этого равна сумме большого числа вероятностей, о каж- дой из которых мы лишь знаем, что она мала. Сейчас мы дока- жем, что с вероятностью единица разность Sn/n—р становится и остается малой.
218 Гл. VIII, Неограниченные последовательности испытаний Бернулли Усиленный закон больших чисел. Для любого 8>0 с вероятностью единица осуществится лишь конечное число событий \SJn—p\>z. (4.2) Отсюда вытекает, что соотношение (4.1) справедливо с вероятностью единица. В терминологии конечных пространств элементарных со- бытий утверждается, что для любых е>0, 6>0 найдется такое г, что для всех v вероятность одновременного выполнения v неравенств \sr+k/(r^k)—Pl <е> 2, .v, (4.3) больше, чем 1 — 6. Доказательство. Докажем более сильное утверждение. Пусть Ah — событие, состоящее в том, что = (4.4) где а>\. Тогда из (6.7) гл. VII,"очевидно, следует, что по крайней мере для всех достаточно больших k имеем Р{Ak\ <e~a}osk=l/ka. (4.5) Поэтому ряд сходится, и по лемме 1 из предыдущего параграфа с вероятностью единица выполняется только конечное число неравенств (4.4). С другой стороны, если справедливо (4.2), то I (Sn—np){V"npq I > (&[]/'pq) Vn (4.6) и для больших п правая часть больше К2а log п. Следовательно, выполнение бесконечно многих неравенств (4.2) влечет за собой осуществление бесконечного числа событий Ak и имеет поэтому нулевую вероятность. Усиленный закон больших чисел был впервые сформулирован Кантелли (1917); до этого Борель и Хаусдорф рассмотрели некоторые частные случаи. Усиленный закон, так же как и обычный закон больших чисел, является лишь весьма частным случаем одной общей теоремы о случайных величинах. Рассмотренный совместно с нашей теоремой о неэффективности систем игры закон больших чисел вле- чет за собой существование предела (4.1) не только для исходной последовательности испытаний, но и для всех подпоследователь- ностей, полученных в соответствии с правилами из § 2. Таким обра- зом, эти две теоремы вместе описывают основные свойства случай- ности, которые присущи интуитивному представлению о вероят- ности и важность которых особенно подчеркивал Мизес.
§ 5. Закон повторного логарифма 219 § 5. ЗАКОН ПОВТОРНОГО ЛОГАРИФМА Как и в гл. VII, снова введем нормированное число успехов в и испытаниях sn = (Sn—np)!Vnpq. (5.1) Предельная теорема Лапласа утверждает, что Р{§,*>%} —91(х). Следовательно, для любого фиксированного п величина S* не может быть большой, но интуитивно ясно, что в длительной последова- тельности испытаний S*n рано или поздно примет сколь угодно большое значение. Умеренные значения S* наиболее вероятны, но максимум будет медленно возрастать. Насколько быстро? При дока- зательстве усиленного закона больших чисел из (4.5) мы получили, что с вероятностью единица неравенство S„ <]/"2а log п выполняется для любого а > 1 и всех достаточно больших п. Это дает нам верхнюю оценку для флуктуаций S„, но эта оценка плохая. Чтобы установить это, применим те же самые рассуждения к подпосле- довательности SJ, S£, S*, Sje, ..., т. е. определим событие Ak соот- ношением К2а logk. Из неравенства (4.5) вытекает, что нера- венство S*^ < V2а log& выполняется для а> 1 и всех достаточно больших k. Но для п = 2к имеем log k ~ log log п, и поэтому для а > 1 и всех п вида n = 2k неравенство S* < К 2а log log п (5.2) выполняется, начиная с некоторого k. Теперь естественно предпо- ложить, что в действительности (5.2) справедливо для всех доста- точно больших /г, и, в самом деле, это одно из утверждений закона повторного логарифма. Согласно этой замечательной теореме1), V 2 log log п есть точная верхняя оценка в том смысле, что при любом а < 1 для бесконечно многих п выполнено неравенство, про- тивоположное (5.2). Теорема. С вероятностью единица справедливо соотношение lim sup (S„/К2 log log n) = 1. (5.3) П -> 00 Это означает, что при % > 1 с вероятностью единица происходит только конечное число событий Sra > npA-^V^lnpq log logn; (5.4) x) Khintchin A. Uber einen Satz der Wahrscheinlichkeitsrechnung, Fundamen- ta Mathematicae, 6 (1924), 9—20. Этому открытию предшествовали частные ре-» зультаты других авторов. Настоящее доказательство построено таким образом, что оно допускает непосредственное обобщение на более общие случайные вели- чины,
220 Гл, VIII. Неограниченные последовательности испытаний Бернулли при %< 1 с вероятностью единица неравенство (5.4) справедливо для бесконечного числа значений п. По соображениям симметрии из (5.3) вытекает lim inf (S* /К2 log log n) — — 1. (5.3a} ti -> co Доказательство. Начнем с двух предварительных замечаний. 1. Существует постоянная с>0, зависящая от р, но не завися- щая от п и такая, что Р {Sn>np}>c (5.5) при всех п. Действительно, рассмотрение биномиального распреде- ления показывает, что левая часть (5.5) никогда не равна нулю, а по предельной теореме Лапласа она стремится к 1/2 при п->оо. Сле- довательно, как и утверждалось, левая часть больше некоторой по- ложительной постоянной. 2. Нам потребуется также следующая лемма. Пусть х фиксиро- вано иА — событие, заключающееся в том, что хотя бы для одного k, k^n, выполняется неравенство —kp>x. (5.6) Тогда Р {ЛКг1 Р {Sn—np>x}. (5.7) Для доказательства этой леммы обозначим через Av событие, сос- тоящее в том, что (5.6) выполняется при k=v, но не выполняется при й=1, 2, . . ., v—1 (здесь l^vs^/i). События А1} А2,. . Ап попарно ’ несовместны, и их объединение дает А; следовательно, Р {Л}=Р MtH...+Р {Ап}. (5.8) Далее, пусть при v<n Uv—событие, состоящее в том, что общее число успехов в испытаниях с номерами v+ 1, v-|-2, ..., п больше, чем (п—v) р. Если оба события Av и Uv произошли, то Sn > Sv + + (п—v) р > прА-х, и, так как события AVUV попарно несовместны, отсюда вытекает, что Р {S-np > 4 > Р {A.U,} + •.. + Р {Ап_ЛпЛ 4- Р m (5-9) Далее, Av зависит только от первых v испытаний, a (Д—только от последующих п — v испытаний. Поэтому события Av и Uv неза- висимы и Р{Лу(74 = Р{Л4 P{(/v}. Из предварительного замечания (5.5) мы знаем, что P{t/V} > с > 0, и из (5.9) и (5.8) получаем Р {S„ - пр > х} > с 2 Р {Л4 - cP {Л}. (5.10) Это и доказывает (5.7). 3. Докажем теперь утверждение теоремы, относящееся к (5.4) при %>1. Пусть у — число, такое, что 1<?<Л (5.11)
§ 5. Закон повторного логарифма 221 а пг — целое число, ближайшее к уг. Обозначим через Вг событие состоящее в том, что неравенство S„—пр > % К2nrpq log log nr (5.12) выполняется хотя бы для одного п из интервала nr^n<Znr+i. Оче- видно, (5.4) справедливо для бесконечного числа значений п только тогда, когда осуществится бесконечно много событий Вг. Следова- тельно, используя первую лемму Бореля — Кантелли, видим, что достаточно доказать утверждение ряд 2Р {Вг} сходится. (5.13) Согласно неравенству (5.7), имеем Р {BJ <с~Ф {Snr+1—nr+1p>k]f2nrpq log log n~} = = c-1P{S^+j >XK2 (nr/nr+1) log log nJ. (5.14) Поскольку при достаточно больших г nr+1/nr ~ у < %, получаем Р {Вг} < с-ф {S^r+1 > V 2k log log nJ. (5.15) Следовательно, из (6.7) гл. VII для больших г имеем Р {Br} с~1е~^ log log Пг = 1/[с (log nr)K~\ ~ 1/[с (г log у)л]. (5.16) Так как л> 1, утверждение (5.13) доказано. 4. Докажем, наконец, утверждение, относящееся к (5.4) при А, < 1. В качестве у выберем на этот раз целое число, столь боль- шое, что (7-1)/?>П>^ (5.17) где т]—постоянная, которую определим позднее. Положим пг = уг. Вторая лемма Бореля—Кантелли применима только к незави- симым событиям, и по этой причине определим Dr = Srtr-Snr-1; (5.18) здесь Dr—общее число успехов, происшедших в испытаниях, сле- дующих за п^-м вплоть до пг-го включительно. Величина Dr имеет биномиальное распределение b (£; п, р), где п = пг—пг^. Пусть Аг — событие, состоящее в том, что Dr—(nr —nr_Jp > т] У2pqnr log log nr. (5.19) Мы утверждаем, что с вероятностью единица осуществится беско- нечно много событий Аг. Поскольку различные события Аг зависят от неперекрывающихся групп испытаний (а именно Аг зависит от испытаний с номерами пг-1-< п пг), они взаимно независимы, и, согласно второй лемме Бореля—Кантелли, достаточно доказать, что
222 Гл. VIII. Неограниченные последовательности испытаний Бернулли ряд 2^(4} расходится. Имеем Р {4} = Р { л 1/2 log log nJ. (5.20) V У (nr—nr-i) pq r nr nr-i J Здесь tirl(tir—= y/(y—1) < Л"1 в СИЛУ (5.17). Следовательно, p {4} > P fefr-"'-1)P- > /21] log log nA. (5.21) I у (nr — nr-dpq J Опять используя оценку (6.7) гл. VII, для больших г находим P{AJ > 1—г--e-niogiog—---------1_------- (5.22) 1 ri log log nr (log log nr) (lognj1! V 7 Так как nr = yr и ц < 1, для больших г имеем Р{АД > 1/г, что и доказывает расходимость ряда 2Р{АЪ На последнем шаге доказательства нужно показать, что вели- чиной Snr_t в (5.18) можно пренебречь. Из первой, уже доказанной части теоремы знаем, что для любого 8 > 0 найдется такое V, что с вероятностью не меньше 1—8 для всех г > N выполняется нера- венство I Snr_,—nr_гр I < 2 /2p<ynr_j log log nr_ (5.23) Далее, предположим, что число т] выбрано столь близким к 1, что 1—П<[(П_ Х)/2]2. (5.24) Тогда из (5.17) вытекает, что 4/ir_j = 4пгу"х < пг (ц—Z)2, (5.25) и поэтому из (5.23) получаем — tir^p > — (n—X) V2pqnr log log nr. (5.26) Сложив (5.26) и (5.19), получим (5.4) с п^=пг. Отсюда следует, что с вероятностью не меньше 1 — 8 неравенство (5.4) выполнено для бес- конечного числа значений г, что и завершает доказательство. Закон повторного логарифма для испытаний Бернулли является частным случаем более общей теоремы, впервые сформулированной А. Н. Колмогоровым х). В настоящее время доказаны и более силь- ные теоремы (см. задачи 7 и 8). х) Kolmogoroff A., Das Gesetz des iterierten Logarithmus, Mathematische Anna^ len2 101 (1929), 126—135,
§6. Интерпретация на языке теории чисел 223 § 6. ИНТЕРПРЕТАЦИЯ НА ЯЗЫКЕ ТЕОРИИ ЧИСЕЛ Пусть х — действительное число из интервала O^x^l и х=0,«1 а2 а3... (6.1) есть его десятичное разложение (так что каждое aj обозначает одну из цифр 0,1,. . .,9). Это разложение единственно для всех чисел, за исключением чисел вида cz/10" (где а — целое), а последние могут быть записаны либо в виде разложения, содержащего бесконечно много нулей, либо в виде разложения, содержащего бесконечно много девяток. Во избежание неопределенности условимся не поль- зоваться разложениями второго вида. Десятичные разложения связаны с испытаниями Бернулли с Р~ 1/10, в которых 0 соответствует успеху, а остальные цифры — неудаче. Если заменить в (6.1) все нули буквой У и все другие цифры буквой Я, то (6.1) будет представлять собой возможный исход бес- конечной последовательности испытаний z Бернулли с /? = 1/10. Об- ратно, произвольная последовательность букв У и Н может быть получена описанным выше способом из разложения некоторого чис- ла х. Таким образом, каждое событие в пространстве элементарных событий, связанном с испытаниями Бернулли, представляется неко- торой совокупностью чисел х. Например, событие «успех в n-м ис- пытании» представляется всеми числами х, у которых n-й десятич- ный знак равен нулю. Эти числа образуют совокупность 10""1 ин- тервалов, длина каждого 10~я, и общая длина этих интервалов рав- на 1/10, т. е. вероятности нашего события. Каждому конкретному исходу п испытаний Бернулли соответствует совокупность некото- рых интервалов, например последовательность УНУ представля- ется девятью интервалами 0,01<х<0,011, 0,02^х<0,021,. . . . . ., 0,09^х<0,091. Вероятность каждого исхода конечной последо- вательности испытаний равна общей длине соответствующих интер- валов на оси х. Вероятности более сложных событий всегда выража- ются через вероятности исходов конечной последовательности испы- таний, и вычисления проводятся в соответствии с правилом сложе- ния, которое верно для обычной меры Лебега на оси х. Следователь- но, наши вероятности всегда будут совпадать с мерой соответствую- щего множества точек на оси х. Итак, у нас есть способ перевода всех предельных теорем для испытаний Бернулли с /7=1/10 в тео- ремы о десятичных разложениях. Выражение «с вероятностью едини- ца» эквивалентно следующим: «для почти всех х» и «почти всюду». Мы рассматривали случайную величину Sn, равную числу успе- хов в п испытаниях. Здесь уместно подчеркнуть тот факт, что Sn является функцией от элементарных событий. Обозначим через Sn (х) число нулей среди первых п десятичных знаков числа х. Очевидно, график S„ (х) представляет собой ступенчатую ломаную с разрывами в точках^вида а/10", где а — целое. Отношение Sn(x)/n называется частотой нулей среди первых п десятичных знаков числа х.
224 Гл. VIII. Неограниченные последовательности испытаний Бернулли На языке обычной теории меры закон больших чисел утверждает, что Sn(x)/n->1/10 по мере, а из усиленного закона больших чисел следует, что Sn(x)/n->1/10 почти всюду. Закон повторного логариф- ма Хинчина показывает, что lim sup [(S„ (%) — п/ 10)/jZп log log n\ = 0,3 j/*2 (6.2) для почти всех x. Это дает ответ на проблему, изучавшуюся в ряде работ, начиная с книги Хаусдорфа (1913) х) и статьи Харди и Литлвуда (1914) * 2). Дальнейшие уточнения этого результата см. в задачах 7 и 8. Вместо нуля можно было рассмотреть любую другую цифру и сформулировать следствие усиленного закона больших чисел, сос- тоящее в том, что частота каждой из десяти цифр стремится к 1/10 для почти всех х. Аналогичные теоремы справедливы и в случае, ког- да десятичная система счисления заменяется любой другой. Этот факт был открыт Борелем 3) и обычно выражается утверждением, что почти все числа «нормальны» 4 *). § 7. ЗАДАЧИ 1. Найти целое число р, для которого вероятность того, что при бросании кости серия из трех последовательных единиц появится раньше серии из р нееди- ниц, примерно равна половине. 2. Рассмотрим повторные независимые испытания с тремя возможными ис- ходами А, В, С и соответствующими вероятностями р, q, г (р+^+г=1). Найти вероятность того, что серия А длиной а появится раньше, чем серия В длиной р. 3. Продолжение. Найти вероятность того, что серия А длиной а появится раньше, чем либо серия В длиной р, либо серия С длиной у. 4. Пусть в последовательности испытаний Бернулли Ап — событие, состоя- щее в том, что серия из п последовательных успехов произойдет между 2п-м и 2" + 1-м испытаниями. Доказать, что если р^ 1/2, то с вероятностью единица осуществится бесконечно много событий а если р < 1/2, то с вероятно- стью единица осуществится только конечное число Ап, 55) . Обозначим через N„ длину серии успехов, начинающуюся в я-м испытании (т. е. N„ = 0, если ц-е испытание закончилось неудачей и т. д.). Доказать, что с вероятностью единица lim sup (Nn/Log n) = lf (7.1) где Log—логарифм по основанию 1/р. J) Hausdorff F., Grundztige der Mengenlehre, Leipzig, 1913. 2) Hardy G. H. Littlewood J. E. Some problems of Diophantine approximation, Acta Mathematica, 37 (1914), 155—239. 3) Borel E., Les probabilites denombrables et leurs applications arithmetiques, Rend. Circ. Math. Palermo, 27 (1909), 247—271.— Прим, перев. 4) Более подробное изложение вопросов, затронутых в этом параграфе, см« в работах Хинчин А. Я., Метрические задачи теории иррациональных чисел, Успехи матем. наук, 1 (1936), 7—32 и Кас М. Statistical independence in proba- bility analysis and number theory.— New York, 1959. [Имеется перевод: Кац M. Статистическая независимость в теории вероятностей, анализе и теории чисел.— М.: ИЛ, 1963.] — Прим, перев. £) Задача подсказана сообщением, полученным от Д. Дж. Ньюменав
§7. Задачи 225 Указание, Рассмотреть событие Ап, состоящее в том, что за n-м испыта- нием следует серия из более чем я Log/г успехов. Для а> 1 вычисления простые. При а < 1 рассмотреть подпоследовательность испытаний с номерами aii ^2, где ап—целое число, ближайшее к п Log п. 6. Получить из закона повторного логарифма утверждение: с вероятностью единица для бесконечного числа значений п все величины Sk, где п <k < 17м, положительны. (Замечание. При помощи результатов гл. III можно доказать значительно более сильные утверждения.) 7. Пусть ф (t) — положительная монотонно возрастающая функция и пг — целое число, ближайшее к er/log г. Если ряд 5 [1/ф (лг)] е-<1/2><₽2 (7.2) сходится, то с вероятностью единица неравенство sn > пр + ]/~npqtf(n) (7.3) справедливо лишь для конечного числа значений п. Заметим, что без потери общности можно предполагать, что <р (п) < 10 j/'loglog/z; для больших значе- ний qp (п) утверждение вытекает из закона повторного логарифма. 8. Доказать х), что ряд (7.2) сходится тогда и только тогда, когда схо- дится ряд 2 [ф («)/«] e_<1/2)Q>2(n’. (7.4) Указание. Собрать члены с номерами п, где < п < пг, и заметить, что пг — nr-i ~~ nr (1 — 1/logr); кроме того, ряд (7.4) может сходиться только тогда, когда ф2 (п) > 2 log log п. 9. Используя результат предыдущей задачи, доказать, что с вероятностью единица lim sup [S‘ - /2 log log n] =4. (7.5) x) Объединяя результаты задач 7 и 8f видим, что в случае сходимости ряда (7.4) неравенство (7.3) выполняется с вероятностью единица только для конечного числа значений п. Обратно, если ряд (7.4) расходится, то неравен* ство (7.3) выполняется с вероятностью единица для бесконечного числа зна*. чений п. Это обратное утверждение доказать значительно труднее, см. Feller W., The general form of the so-called law of the iterated logarithm, Trans. Amer. Math. Soc., 54 (1943), 373—402, где доказаны более общие теоремы для произвольных случайных величин. Относительно частного случая испытаний Бернулли с р=1/2 см. Erdos Р.-, On the law of the iterated logarithm, Ann. of Math. (2), 43 (1942), 419—436. Закон повторного логарифма получается как частный случай при ф (/) =1 У~2 log log t, 8 № 221
ГЛАВА IX СЛУЧАЙНЫЕ ВЕЛИЧИНЫ; МАТЕМАТИЧЕСКОЕ ОЖИДАНИЕ § 1. СЛУЧАЙНЫЕ ВЕЛИЧИНЫ Согласно определению, которое дается в курсах математически- го анализа, величина у называется функцией действительного числа х, если каждому значению х соответствует некоторое значение у. Это определение можно расширить на случай, когда независимая переменная не является действительным числом. Так, например, расстояние — это функция пары точек, периметр треугольника — функция, определенная на множестве треугольников, последова- тельность {ап} является функцией, определенной для всех положи- тельных целых чисел, биномиальный коэффициент — функция, определенная для пар чисел (х, &), из которых второе является не- отрицательным целым числом. В этом же смысле мы можем говорить о числеSn успехов в п испытаниях Бернулли как о функции, опреде- ленной на пространстве элементарных событий, каждой из 2" точек которого соответствует некоторое число Sn. Функция, определенная на пространстве элементарных собы- тий, называется случайной величиной. В предыдущих главах мы занимались случайными величинами, не употребляя этого термина. Типичными случайными величинами являются: число тузов у од- ного игрока при игре в бридж, число совпадающих дней рождения в группе из п человек, число серий успехов в п испытаниях Бернул- ли. В каждом случае задано правило, по которому каждому элемен- тарному событию соответствует единственное число X. Классичес- кая теория вероятностей была посвящена в основном нахождению выигрыша игрока, а этот выигрыш также является случайной величиной. Действительно, каждую случайную величину можно интерпретировать как выигрыш реального или воображаемого игрока в соответствующей игре. Положение частицы при диффу- зии, энергия, температура и т. п. физических систем являются случайными величинами, но они определены на недискретных пространствах элементарных событий, и поэтому их изучение от- кладывается. В случае дискретного пространства элементарных событий теоретически можно задать любую случайную величину X, занумеровав в каком-либо порядке все точки пространства и свя- зав с каждой из них соответствующее значение X. Термин «случайная величина» несколько неточен, более подхо- дящим был бы термин «функция случая» (независимой переменной
, 1. Случайные величины 227 является точка в пространстве элементарных событий, т. е. исход Эксперимента или случай). Пусть X — случайная величина, a Xf, х2)...— ее значения; в дальнейшем х}-, как правило, будут целыми числами. Совокупность Всех элементарных событий, на которых X принимает фиксирован- ное значение Xj, образует событие Х=х/, его вероятность обознача- ется через Р (X =%;•}. Функция Р{Х=хД=/(Х;) (/=1, 2,...) (1.1) называется распределением (вероятностей) х) случайной величины X. Ясно, что 2/(х,) = 1. (1.2) В этой терминологии можно говорить, что число успехов S„ в испытаниях Бернулли есть случайная величина с распределением вероятностей {Ь (£; п, р)}, а число испытаний до первого успеха включительно является случайной величиной с распределением Рассмотрим теперь две случайные величины X и Y, определен- ные на одном пространстве элементарных событий, и обозначим их значения соответственно через %f, х2,... и z/i, г/2,... . Пусть соответст- вующие распределения вероятностей будут и {g(#&)}. Со- вокупность точек, для которых выполнены оба условия Х=%7- и Y=z//n образует событие, вероятность которого обозначим через Р{Х=Х/, Y=z/ft}. Функция Р {Х=х;, V=yk}=p(xhyk) (/,£=1,2,...) (1.3) называется совместным распределением вероятностей случайных величин X Y. Это распределение лучше всего представить в виде таблицы с двумя входами, как сделано ниже (табл. 1 и 2). Ясно, что р(Х/, Ук)>°> Ук) = 1- О-4) Кроме того, для каждого фиксированного / Р(Хр Уд + р&р y2) + p(xJt z/3) + ...=P{X = x/}=/(x/) (1.5) х) Распределение вероятностей дискретной случайной величины X пред- ставляет собой функцию f (%у), определенную на множестве значений xj вели- чины X. Термин «распределение вероятностей» нужно отличать от термина «функция распределения», который применяется к неубывающим функциям, стремящимся к 0 при х—>—оо и к 1 при х—> оо. Функция распределения F (х) дискретной случайной величины X определяется формулой F(x)=P {X 2 Нх/), X в которой сумма берется по всем значениям Xjt не превосходящим xt Таким образом, функцию распределения случайной величины можно вычислить по распределению вероятностей этой величины, и наоборот, В этом томе мы вообще не будем касаться Функций распределения. 8Ф
228 Гл. IX. Случайные величины; математическое ожидание и для каждого фиксированного k p(Xi, ук) + р(х2, yk)+p(x3, ук)+..-=Р{У = yk} = g(yk). (1-6) Иначе говоря, суммируя вероятности по строкам и столбцам, мы получаем распределения вероятностей величин Хи Y. Их можно изобразить так, как показано в табл. 1 и 2, и тогда они называются маргинальными (частными) распределениями. Прилагательное «мар- гинальный» связано с тем, что распределения величин X и Y запи- сываются по краям таблицы, соответствующей их совместному рас- пределению, и используется также для стилистической ясности, когда совместное распределение двух величин и их частные (марги- нальные) распределения появляются в одном и том же контексте. Строго говоря, прилагательное «маргинальный» излишне. Понятие совместного распределения переносится также на сис- темы из более чем двух случайных величин. Примеры, а) Случайные размещения 3 шаров по 3 ящикам. Об- ратимся к пространству элементарных событий которое состоит из 27 точек и формально задано в табл. 1, приведенной в примере гл. I, 2, а), и припишем каждой точке вероятность 1/27. Пусть N — чис- ло занятых ящиков, а Хг (i=l, 2, 3) — число шаров в ящике с номе- ром i. Это наглядные описания. Формально же N есть функция, при- нимающая значение 1 в точках с номерами 1—3, значение 2 в точках с номерами 4—21 и значение 3 в точках с номерами 22—27. Следо- вательно, распределение вероятностей величины N определяется равенствами P{N = l}=l/9, P{N-2}=2/3, Р {N=3}=2/9. Сов- местные распределения величин (N, Xi) и (Х1? Х2) приведены в табл. 1 и 2. Таблица 1 Совместное распределение (N, Х2) в примере «а» X, N 0 1 2 3 Распределение N 1 2/27 0 0 1/27 1/9 2 6/27 6/27 6/27 0 2/3 3 0 6/27 0 0 2/9 Распределение Хх 8/27 12/27 6/27 1/27 Е (N) = 19/9, Е (N2) = 129/27, Var (N) = 26/81, E(Xj) = l, Е(Х*) = 45/27, Var(X1) = 2/3, Е (NXJ = 19/9, Cov (N, XJ = 0. N — число занятых ящиков, Xj—число шаров в первом ящике, когда три шара случайно размещаются по трем ящикам.
§ 1. Случайные величины ' 229 Таблица 2 Совместное распределение (Xj, Х2) в примере «а» xi Х2 0 I 2 3 Распределение х2 0 1/27 3/27 3/27 1/27 j 8/27 1 3/27 6/27 3/27 0 12/27 2 3/27 3/27 0 0 6/27 3 1/27 0 0 ° 1/27 Распределение Х1 8/27 12/27 6/27 1/27 E(XZ) = 1, Е(Х?) = 45/27, Var(Xz) = 2/3, Е(Х1Х2) = 2/3, Cov (Хх, Х2)=—1/3. Xz—число шаров в i-м ящике, когда 3 шара случайно размещаются по 3 ящикам. б) Полиномиальное распределение. Существует множество ситуа- ций, в которых совместное распределение трех случайных величин задается полиномиальным распределением (см. гл. VI, 9), т. е. Р{Хх = ^, Х2 = ^, Х3 = £3} = = (1 -Pi~P2-P^n-k'~k2-k3. ,, 7, kJ kJ kJUn—ki-ki—kJp ' здесь kt, k2 и k3 — неотрицательные целые числа, такие, что kt+ +k2+k3^n. Например, если Xf, Х2 и Х3 представляют собой числа выпадений единицы, двойки и тройки при п бросаниях правильной кости, то их совместное распределение задается формулой (1.7) с Р1==Р2=Рз:=1/6. Снова предположим, что производится выборка о возвращением из генеральной совокупности, элементы которой раз- биты на несколько групп. Если X; обозначает число попавших в выборку элементов из /-й группы, то совместное распределение (Xf, Х2, Х3) имеет вид (1.7). Чтобы получить (маргинальное) распределение величин (Xf, Х2), нужно зафиксировать kt и k2 и просуммировать вероятности (1.7) по всем возможным значениям k3, т. е. &3=0, . . п — ki — k2. Используя формулу бинома Ньютона, получаем триномиальное распределение Р IV _к "V____Ъ.\__ Pl Pj (1 pi р2)П кг /| О» Л2-Йа}- kjkj(n-ki-k2)l • Суммируя по й2=0, .... п — kit находим распределение величины Хх: оно сводится к биномиальному распределению g p~pt.
230 Гл. IX. Случайные величины; математическое ожидание -л в) Геометрические распределения. Рассмотрим последователь- ность испытаний Бернулли, которые продолжаются по меньшей мере до появления двух успехов. Пусть Xi — число неудач до первого успеха, а Х'2 — число неудач между первыми двумя успехами. Сов- местное распределение величин (Xf, Х2) дается формулой (см. гл. VI, 8) Р{Хх = 7, х2 = &} = ^/А (1.9) Суммируя по k, получаем геометрическое распределение для Xf. (Этот пример попутно показывает, как использование случайной величины позволяет избегать трудностей, связанных с несчетными пространствами элементарных событий.) г) Выборка случайного объема. Несколько удивительный резуль- тат получается из одного варианта примера б). Предположим, что число испытаний не фиксировано заранее, а зависит от исхода слу- чайного эксперимента таким образом, что вероятность осуществле- ния ровно п испытаний равно е~*Хп/п\. Иначе говоря, число испы- таний теперь само является случайной величиной с распределением Пуассона {e“xV/n!}. При заданном числе испытаний п событие = X2 = fe2, Х3 = £3} имеет (условную) вероятность, равную правой части (1.7). Чтобы найти абсолютную (безусловную) вероят- ность этого события, нужно умножить правую часть в (1.7) на е"Чп/п! и просуммировать по всем возможным значениям п. Для данных kj, конечно, необходимо, чтобы 7? ^2 *4” Й3- Вводя разность г=п—(^х+^2+^з) в качестве нового индекса сум- мирования, получаем Р(Х1 = ^1, Х2 = 62, Х3 = ^3} = с-к (W у ГУ(1-Р1-Р2-Р3)Г 10) kt\ k2! k3l rl • \ • I В правой части мы видим степенной ряд и можем записать окон- чательный результат в виде Р{Х1 = ^, Х2 = 62, Х3 = й3} = — С-ЛР. . g-XP. М*’ . д-Хо, ФРз)*» fej k2\ k3\ ’ (1.11) После суммирования по k2 и ka исчезают второй и третий сомножи- тели, и находим, что величина X,- сама имеет распределение Пуассо- на. Любопытный факт заключается в том, что совместное распреде- ление имеет форму таблицы умножения. О такой ситуации будем говорить, что три величины взаимно независимы. (Этот пример является по существу иной формулировкой задачи 27 гл. VI, 10.) ►
§ 1. Случайные величины 231 В обозначениях (1.3) условная вероятность события Y=z/ft при условии, что X=Xj [и /(х>)>01, записывается в виде Р {Y = z/fe|X=Xj}=p(xj, yk)lf(x}). (1.12) Таким образом, каждому значению X ставится в соответствие не- которое число, и поэтому (1.12) определяет функцию от X, которая называется условным распределением Y при заданном X и обозна- чается Р {Y=yft|X}. Из табл. 1 и 2 видно, что условная вероятность (1.12), вообще говоря, отличается от Это означает, что по из- вестным значениям X можно сделать некоторые выводы о значениях Y, и наоборот; две случайные величины являются (стохастически) зависимыми. Наибольшая степень зависимости будет тогда, когда Y является функцией от X, т. е. когда значение X однозначно опреде- ляет Y. Например, если монета бросается п раз, а X и Y являются числами выпадений гербов и решеток, то \=п—X. Аналогично, когда Y=X2, по значению X можно вычислить Y. Для совместного распределения это означает, что все члены каждой строки, за ис- ключением одного, нулевые. С другой стороны, если р(х7, Ук)=^ *=f(Xj)g(yh) для всех комбинаций Xj,yk, то события Х=х7-и N=yh независимы; совместное распределение принимает форму таблицы ум- ножения. В этом случае говорят о независимых случайных величинах. Они получаются, в частности, в связи с независимыми испытания- ми, например числа, появляющиеся при двух бросаниях кости, не- зависимы. Иллюстрацию другого рода дает пример г). Заметим, что совместное распределение X и Y определяет рас- пределения величин X и Y, но мы не можем найти совместное рас- пределение Хи Y по их маргинальным распределениям. Если две величины X и Y имеют одинаковое распределение, то они могут быть независимыми, а могут и не быть таковыми. Например, две величины Xf и Х2 в табл. 2 имеют одинаковые распределения и не- зависимы. Все наши замечания применимы и в случае более чем двух вели- чин. Подведем итог формальным определением. Определение. Случайная величина X есть функция, определенная на данном пространстве элементарных событий, т. е. X задает пра- вило, по которому каждому элементарному событию соответствует некоторое действительное число. Распределение вероятностей слу- чайной величины X есть функция, определенная в (1.1). Если две слу- чайные величины ХиЧ определены на одном и том же пространстве элементарных событий, то их совместное распределение задается равенствами (1.3),. в которых всем комбинациям (xj, yk) значений, принимаемых Хи У, приписываются определенные вероятности. Это понятие очевидным образом переносится на произвольное конечное множество величин X, Y,. . ., W, определенных на одном и том же пространстве элементарных событий. Эти величины называются взаимно независимыми, если для любой комбинации их значений 1
232 Гл. IX. Случайные величины; математическое ожидание ^х, у, . . справедливо равенство Р{Х=х, Y = г/, W = w} = -P{X = x}P{Y-y}...P{W = ^}. (1.13)' В гл. V, 4 было определено пространство элементарных событий, соответствующее п взаимно независимым испытаниям. Сравнивая это определение с (1.13), видим, что если Xk зависит только от ис- хода k-го испытания, то величины Xf, . . ., Хп взаимно независимы. Вообще, если случайная величина U зависит лишь от исходов пер- вых k испытаний, а другая величина V зависит только от исходов остальных п — k испытаний, то U и V независимы (см. задачу 39). Мы можем представлять себе случайную величину как набор числовых отметок на точках пространства элементарных событий. Это представление знакомо по ситуации с игральной костью, где грани занумерованы, и мы говорим о числах как о возможных ис- ходах отдельных испытаний. Пользуясь обычной математической терминологией, можно сказать, что случайная величина X яв- ляется отображением исходного пространства элементарных собы- тий в новое пространство, состоящее из точек хх, х2,... . Следова- тельно, Если последовательность {/(х7)} удовлетворяет очевидным усло- виям (1.2), то можно говорить о случайной величине X, принимаю- щей значения xlf х2,... с вероятностями /(xi), /(х2)..., без дальней- ших указаний на исходное пространство элементарных событий; новое пространство образуется точками х19 х2,... . Задание распре- деления вероятностей эквивалентно заданию пространства элемен- тарных событий, точками которого являются действительные чис- ла. Говорить о двух независимых случайных величинах X и Y с рас- пределениями {/(Ху)} и g {(уъ)}—значит говорить о пространстве элементарных событий, точками которого являются пары чисел (Xj, Уь) с вероятностями, заданными по правилу Р{(х/, Уь)}=* ^=f (х^ g (yh). Аналогично за пространство элементарных событий, соответствующее множеству п случайных величин (X, Y,. . W), можно взять совокупность точек (х, у, . . ., w) в п-мерном простран- стве с вероятностями, определяемыми совместным распределением. Случайные величины взаимно независимы, если их совместное распре- деление задается формулой (1.13). Пример, д) Испытания Бернулли с переменными вероятностями. Рассмотрим п независимых испытаний, каждое из которых имеет лишь два возможных исхода, У и Н. Вероятность исхода У в &-м испытании равна ph, для исхода Н она равна <7*=1—р^ Если =р, то эта схема сводится к испытаниям Бернулли. Проще всего описать нашу схему, приписав исходам У и Н значения 1 и 0 и сказав, что у нас есть п взаимно независимых случайных величин ХА с распределениями Р {ХЛ=1} —Р {Xk=0} =qk. Модель теперь пол- ностью описана. Эта схема также известна под названием «испыта-
§ 1. Случайные величины 233 ния Пуассона» (или схемы Пуассона), которое может вызвать пута- ницу х). (См. примеры 5, б) и гл. XI, 6, б).) ► Ясно, что одно и то же распределение может появляться при раз- личных пространствах элементарных событий. Если мы говорим, что случайная величина X принимает значения 0 и 1 с вероятностя- ми 1/2, то мы молчаливо подразумеваем пространство элементарных событий, состоящее из двух точек 0 и 1. Но величина X может быть определена тем условием, что она равна 0 или 1 в зависимости от того, выпадает ли при десятом бросании монеты герб или решетка; в этом случае X определена на пространстве последовательностей (ГГЛ..), и это пространство элементарных событий состоит из 2Х9 точек. В принципе можно ограничить теорию вероятностей изучением пространств элементарных событий, определенных в терминах рас- пределений вероятностей случайных величин. При таком подходе не нужно будет обращаться к абстрактному пространству элемен- тарных событий и использовать термины типа «испытания» и «ис- ходы экспериментов». Сведение теории вероятностей к случайным величинам является кратчайшим путем к применению анализа и упрощает многие стороны теории. Однако оно имеет и недостаток, состоящий в затушевывании вероятностных оснований. Представ- ление о случайной величине как о «чем-то принимающем разные зна- чения с различными вероятностями» легко может остаться неясным. Но случайные величины являются обычными функциями, и в этом понятии нет ничего специфического, принадлежащего только тео- рии вероятностей. Пример, е) Пусть X — случайная величина с возможными значе- ниями Xi, х2>... и соответствующими вероятностями /(хх), /(х2), ... . Читатель всегда сумеет, если это поможет его воображению, постро- ить мысленный эксперимент, приводящий к X. Например, разделим колесо рулетки на дуги It, /2,. . длины которых относятся как f(xt) :f(x2): ... . Представим себе игрока, получающего (положи- тельную или отрицательную) сумму X], если рулетка остановится в точке дуги lj. Тогда X есть выигрыш игрока. В п испытаниях вы- игрыши соответствуют п независимым величинам с одинаковым распределением {/(х,)}. Чтобы получить две величины с заданным совместным распределением {р(х7-, Уъ)}, возьмем дуги, соответствую- щие каждой комбинации (х/, ук), и вообразим двух игроков, полу- чающих соответственно суммы Xj и t/h. ► Если X, Y, Z,...,— случайные величины, определенные на одном и том же пространстве элементарных событий, то произвольная функ- J) Как правило, эти названия применяют к случаю, когда pi, рп зависят от п («треугольная схема»; см. конец примера гл. Х14 6, б)).—Прим, перев.
234 Гл. IX. Случайные величины! математическое ожидание ция F(X, Y, Z,...) снова является случайной величиной. Ее распре- деление может быть получено из совместного распределения вели- чин X, Y, Z,... просто путем сложения тех вероятностей, которые соответствуют комбинациям (X, Y, Z,...), приводящим к одинако- вым значениям функции F(X, Y, Z Примеры, ж) В примере, который иллюстрировался табл. 2, сумма Xf+X2 является случайной величиной, принимающей зна- чения 0, 1, 2, 3 с вероятностями 1/27, 6/27, 12/27 и 8/27. Произведе- ние Xj Х2 принимает значения 0, 1 и 2 с вероятностями 15/27, 6/27 и 6/27. з) Вернемся к примеру в) и рассмотрим различные функции от Xi и Х2. Наиболее интересна сумма S=Xf+X2. Для нахождения Р {S=v} нужно просуммировать (1.9) по всем значениям /, kf для которых j+k=v. Существует v+1 таких пар, и в рассматриваемом случае все они имеют одинаковые вероятности pvq2. Итак, Р {Х=; =v}=(v+l) pvq2, что является частным случаем формулы (8.1) гл. VI. Пусть теперь U определяется как наименьшая из двух величин Xi, Х2; иначе говоря, U=Xf, если X2^Xf, и U=X2, если X2^Xf. Для нахождения Р {U=v} нужно просуммировать (1.9) по всем парам (/, &), для которых j=v и k^v или />v и k=v. Это приводит к суммам двух геометрических прогрессий P{U = ^ = -S- + ^1 = 72v(1 + 7)P. (1.14)у где v=0, 1,... . Аналогичные вычисления показывают, что Р{Хх—Xl = v} = qi^p/(l+q)1 v-0, ±1, ±2, .... (1.15) Замечание о попарной независимости. В примере гл. V, 3, д) как о любопыт- ном факте говорится о том, что три попарно независимых события могут не быть взаимно независимыми. Чтобы сформулировать аналогичный результат для слу- чайных величин, рассмотрим простейший случай, а именно пространство элемен- тарных событий, состоящее из девяти точек, каждая из которых имеет вероят- ность 1/9. Шесть из этих точек отождествим с различными перестановками чисел 1, 2 и 3, а остальные три точки поставим в соответствие тройкам (1,1, 1), (2, 2, 2) и (3, 3, 3). Введем теперь три случайные величины Xf, Х2, Х3, такие, что Х& равна числу, стоящему на k-м месте. Возможными значениями этих величин яв- ляются 1, 2, 3, и легко проверить, что их частные и совместные распределения даются соотношениями р {Ху = г}= 1/3, Р{Ху = ^ Xfe = s} = l/9. (1.16) (Здесь отличие от выводов в примере гл. V, 3, д) состоит только в обозначениях.) Из (1.16) следует, что три введенные случайные величины попарно независимы, С другой стороны, зная Xf и Х2, мы однозначно находим Х3, так что эти величины не являются взаимно независимыми. Определим теперь тройку (Х4, X5i Х6) так же, как тройку (Xf¥ Х2, Х3)^ но независимо от нее. Итак, получаем шесть попарно независимых величин» удовлетворяющих соотношениям (1.16). Продолжая подобным образом, прихо*
§2, Математические ожидания 235 дим к последовательности величин Xjs Х2, ♦ Хи, удовлетворяющих (1.16) и таких-, что Х^ попарно независимы, но не взаимно независимы1). Мы вернемся к этому в примере гл, XV3 13, е). § 2. МАТЕМАТИЧЕСКИЕ ОЖИДАНИЯ Чтобы добиться разумной простоты, часто приходится описывать распределения вероятностей при помощи немногих «типичных зна- чений». В качестве примера можно привести максимальную вероят- ность биномиального распределения и медиану, которая использо- валась в задачах о времени ожидания в гл. II, 7. Самым важным из этих «типичных значений» является, безусловно, математическое ожидание, или среднее. Оно наиболее удобно для аналитических преобразований и обладает полезным для статистиков свойством, называемым выборочной устойчивостью. Определение математи- ческого ожидания вытекает из обычного понятия среднего значе- ния. Если в некоторой группе семей nh семей имеют ровно по k де- тей, то общее число семей равно n=n0+ni+n2+..., а общее число детей составляет m=/ti+2 п2+3 /г3+... . Среднее число детей в семье равно т!п, Аналогия между вероятностями и частотами подсказы- вает следующее определение. Определение. Пусть X — случайная величина, принимающая значения х2,... с вероятностями f (%i), /(х2),... . Математическое ожидание, или среднее, случайной величины X определяется форму- лой E(X)=SxJ(xa) (2.1) при условии, что ряд в правой части абсолютно сходится, В этом случае говорят, что X имеет конечное математическое ожидание. Если ряд 21 xk I f (xk) расходится, то говорят, что X не имеет конечного математического ожидания. Иногда удобно представить себе вероятности как пределы частот, наблюдаемых в повторных опытах. Такое представление приводит к следующей интуитивной трактовке понятия математического ожи- дания. Пусть некоторый опыт повторяется «при неизменных усло- виях» п раз, и пусть Xj, Хп—наблюдающиеся в действитель- ности значения величины X. При больших значениях п среднее значение (Хх + ... + Хп)/п должно быть близко к Е(Х). Законы больших чисел придают этому неясному интуитивному описанию точный смысл. Само собой разумеется, что большинство обычно встречающихся случайных величин имеют конечные математические ожидания, в про- х) Это построение можно изменить так, чтобы любые три последовательные случайные величины не были независимыми. Дальнейшие модификации приводят к различным контрпримерам в теории случайных процессов. См. Feller W., Non-» Markovian processes with the semi-group property, Ann, Math, Statist., 30 (I959)M 1252—1253.
236 Гл. IX. Случайные величины; математическое ожидание тивном случае это понятие было бы бесплодным (хотя величины, не имеющие конечного математического ожидания, возникают в связи с важными физическими задачами о возвращении). Термины мате- матическое ожидание и среднее являются синонимами. Говорят также о среднем распределения, не указывая соответствующей случайной величины. Обозначение Е (X) общепринято в математике и статистике. В физике обозначение Е (X) обычно заменяется обозна- чениями X, <Х> и <X>av. Займемся теперь вычислением математических ожиданий, для таких функций, как, например, X2. Эта функция является новой случайной величиной, принимающей значения вообще говоря, вероятность того, что Х2 = %1, равна не /(хЛ), а сумме f (xk) + + /(—хь)> и Е (X2) определяется как сумма х% {f (xk) +/(— xk)}. Очевидно, в любом случае Е(Х2)=2<(^) (2.2) при условии, что ряд сходится. Тем же способом можно получить общую теорему. Теорема 1. Каждая функция ср(х) определяет новую случайную величину ср (X). Если ф(Х) имеет конечное математическое ожи- дание, то E(<P(X)) = S<p(xft)H^)- (2.3) Ряд в правой части (2.3) сходится тогда и только тогда, когда Е(Ф(Х)) существует. Для любой постоянной а справедливо соотно- шение Е(аХ) = аЕ (X). Если несколько случайных величин Хп ..., Хп определены на одном и том же пространстве элементарных событий, то их сумма Xi+...+Хл является новой случайной величиной. Невозможные значения и соответствующие вероятности нетрудно найти по сов- местному распределению величин Xv, и, таким образом, можно вычислить Е (Xf+ ... +XJ. Более простой способ вычисления этого математического ожидания дается следующей важной тео- ремой. Теорема 2. Если случайные величины Xf, Х2, . . ., Хп имеют ма- тематические ожидания, то математическое ожидание их суммы существует и равно сумме их математических ожиданий: Е (Хх+ ... +Х„) = Е (Хх) + ... +Е (Х„). (2.4) Доказательство. Достаточно доказать (2.4) для двух случайных величин X и Y. Используя обозначения (1.3), можем записать E(X)4-E(Y)==S*/P(*/. + УМ (2.5) где суммирование производится по всем возможным значениям Xj, ук (которые не обязательно различны). Оба ряда сходятся абсолютно.
§ 2. Математические ожидания 237 следовательно, их сумму можно переписать в виде У (Xi+Ук) р (х^ yk)t i,k что по определению является математическим ожиданием X-{-Y. Тем самым доказательство закончено. ► Ясно, что аналогичная общая теорема для произведений неверна. Например, Е (X2), вообще говоря, отличается от (Е (X))2. Так, если X—число очков, выпавшее при бросании правильной играль- ной кости, то . Е(Х) = 7/2, но Е(Х2) = (1 +4 + 9 + 16 + 25 + 36)/6-91/6. Однако для независимых случайных величин справедливо простое правило умножения. Теорема 3. Если Хи Y — независимые случайные величины с ко- нечными математическими ожиданиями, то их произведение являет- ся случайной величиной с конечным математическим ожиданием и E(XY) = E(X) E(Y). (2.6) Доказательство. Для нахождения E(XY) нужно умножить каж- дое возможное значение Xjyh на соответствующую вероятность. Следовательно, Е (XY) = 2 Xjykf (Xj) g (yk) = {2 Xjf (xy) I. J 2 Уьё(Уь)} > (2-7) причем перестановка членов возможна в силу абсолютной сходи- мости рядов. ► По индукции это правило умножения доказывается для произ- вольного числа взаимно независимых случайных величин. Для математического ожидания условного распределения ве- роятностей удобно иметь свое обозначение. Если X и Y — две слу- чайные величины с совместным распределением (1.3), то условное математическое ожидание E(Y|X) величины Y при заданном X есть функция, принимающая в точке Xj значение ^Укр{^ = Ук\^ = х,}=^УкР(хр yk)^f(Xj). (2.8) Это определение имеет смысл только в том случае, когда ряд в правой части сходится абсолютно и /(х>)>0 при всех /. Условное математическое ожидание Е( Y|X) является новой слу- чайной величиной. Для вычисления ее математического ожидания нужно умножить (2.8) на f (xj) и просуммировать по Xj. В результате получим E(E(Y|X)) = E(Y). (2.9)
238 Гл. IX. Случайные величины; математическое ожидай^ § 3. ПРИМЕРЫ И ПРИЛОЖЕНИЯ а) Биномиальное распределение. Пусть Sn—число успехов в п испытаниях Бернулли с вероятностью успеха р. знаем, что S„ имеет биномиальное распределение {Ь (£; п, /?)}; следовательно, E(S„) = 2 kb(k; п, р) = np^b (k—1; п—1, р). Последняя сумма состоит из всех членов биномиального распределения для п—1 испытаний и поэтому равна 1. Итак, математическое ожидание биномиального распределения равно E(S„) = np. (3.1) Этот результат можно получить без вычислений g помощью ме- тода, который часто оказывается полезным. Пусть Xft — число ус- пехов в fe-м испытании. Эта случайная величина принимает только значения 0 и 1 с соответствующими вероятностями q и р. Следова- тельно, Е(ХА) = 0-д4-1-р = р, в так как S„ = Xj + X24-... 4-Х„, (3.2) то мы получаем (3.1) непосредственно из (2.4). б) Распределение Пуассона. Если X имеет распределение Пуас- сона р(й; X) — e~K№/kl, где k — Q, 1, ..., то е(Х) = 2^р(й; х)=а,2р(й—1; ь). Последний ряд содержит все члены распределения, и поэтому его сумма равна единице. Следовательно, X есть математическое ожи- дание распределения Пуассона {е_K№/k\\. в) Отрицательное биномиальное распределение. Пусть X—слу- чайная величина, имеющая геометрическое распределение Р {X = fe} = — qkp, где 6 = 0, 1, 2...Тогда Е (X) = qp (1 +2р-|-372+ . ..). Справа в скобках стоит производная геометрического ряда, поэтому Е(Х) = qp (1—qY^ = q/p, В гл. VI, 8 мы видели, что X можно трактовать как число неудач до первого успеха в последователь- ности испытаний Бернулли. В более общем случае рассматривается пространство элементарных событий, соответствующее испытаниям Бернулли, которые продолжаются до n-го успеха. Для г < п положим Xj = X и обозначим через Хг число неудач между (г—1)-м и г-м успехами. Тогда каждая величина Xv имеет геометрическое распределение {qkp} и Е (Xv) = q/p. Сумма ¥г = Х£+...+Хг дает число неудач до r-го успеха. Иначе говоря, Yr есть случайная величина с отрицательным биномиальным распределением, опреде- ляемым одной из двух эквивалентных формул (8.1) или (8.2) гл. VI. Отсюда следует, что математическое ожидание отрицательного,
§3. Примеры и приложения 239 биномиального распределения равно rq/p. Это можно проверить не- посредственными вычислениями. Из формулы (8.2) гл. VI ясно, что kf(k; г, p)—rp~x г+1, р), и сумма членов распределения {f(k—I; г+1, р)} дает единицу. Эти непосредственные вычисления хороши тем, что они применимы и в случае нецелых значений г. С другой стороны, первоначальные рас- суждения позволяют получить тот же результат, не зная точного вида распределения Хх+... + Хг. г) Время ожидания при выборе. Из генеральной совокупности, со- держащей N различных элементов, производится выбор с возвраще- нием. Вследствие возможных повторений случайная выборка объе- ма г в общем случае будет состоять из менее чем г различных элемен- тов. При увеличении объема выборки новые элементы будут появ- ляться в ней все реже и реже. Нас интересует, каков должен быть объем выборки Sr, чтобы в ней содержалось г различных элементов. (Как частный случай рассмотрим генеральную совокупность из N== =365 возможных дней рождения; здесь Sr представляет собой число людей, попавших в выборку до момента, когда в выборке окажется г различных дней рождения. Аналогичная трактовка возможна и при случайном размещении шаров по ящикам. Рассматриваемая задача представляет особый интерес для тех, кто собирает купоны и другие предметы, так как новое приобретение можно сравнить со случайным выбором х).) Для упрощения изложения назовем очередное извлечение эле- мента успешным, если выбранный элемент появляется в выборке впервые. Тогда Sr представляет собой число извлечений до r-го ус- пеха включительно. Положим Xft=Sfe + i—Sfe. Тогда Xft—1 есть число неудачных извлечений между k-м и (&+1)-м успехами. Во время этих извлечений в генеральной совокупности было N—k эле- ментов, которые еще не появлялись в выборке, и поэтому Хй—1 рав- но числу неудач до первого успеха в испытаниях Бернулли с = (N—k)/N. Следовательно, согласно примеру в), имеем E(Xft)=3 = \+q/p=N/ (N—k). Наконец, поскольку Sr=l + Xi+... + Xr, по- лучаем E(Sr)=V {W+1/(V—1)+...+ 1/(V—r+1)}. (3.3) В частности, E(Sjv) есть ожидаемое число извлечений, необходимых для того, чтобы в выборку вошли все элементы генеральной сово- купности. При V=10 имеем E(S6)«6,5 и E(S10)«29,3. Это означает, что для выборки первой половины совокупности из 10 элементов в *) Polya G., Eine Warscheinlichkeitsaufgabe zur Kundenwerbung, Zeitschrift fiir Angewandte Mathematik und Mechanik, 10 (1930), 96—97. Пойа другими ме- тодами разбирает несколько более общую задачу. Существует обширная литера* тура, посвященная различным вариантам задачи о собирании купонов. (См, за- дачи 24г 25, а также Задачи 12—14 в гл, XI, 7 и задачу 12 в гл. П2 11.)
240 Гл. IX. Случайные величины; математическое ожидание среднем достаточно семи извлечений, а на вторую половину потре- буется еще 23 извлечения. Чтобы получить приближенную формулу для (3.3), будем трак- товать (N—й)“1 как площадь прямоугольника, основанием которого является интервал единичной длины с центром в точке N — k, а высотой — значение функции х"1 в этой точке. Заменяя площадь этого прямоугольника на площадь области, лежащей ниже графика функции лг1, получаем приближение Л/ + 1/2 E(Sr)^V $ x“1dx = A/rlog[(A^+l/2)/(A/r—r-J-1/2)]. (3.4) N-r + l/2 В качестве примера использования этого приближения возьмем произвольное сх< 1 и рассмотрим ожидаемое число извлечений, не- обходимых для получения в выборке доли а всей генеральной совокуп- ности. Оно равно E(Sr), где г—наименьшее целое ^aN. При 2V->co погрешность, допускаемая при использовании (3.4), стремится к нулю и искомое математическое ожидание в пределе равно N log(l—а)”*1. Заметим, что все эти результаты получены без ис- пользования самого распределения вероятностей величины Sr. [Его легко найти по вероятностям (2.3) гл. IV, полученным в задаче о раз- мещении.] д) Задача об оценке. Некоторая урна содержит шары с номерами от 1 до N. Пусть X — наибольший номер, полученный при п извле- чениях, если производится случайный выбор с возвращением. Собы- тие X^k означает, что каждый из п вынутых номеров не превышает k, и, следовательно, Р {X^k}== (k/N)n. Таким образом, распределе- ние вероятностей случайной величины X определяется формулой рА = Р{Х = £} = Р{Х<й}—Р{Х<6—1}=- = 1)«| (3 5) Отсюда следует, что N N Е(Х)= 2 kpk = N~n 2 {£"+1—(fe—l)n+1—(&—1)ПН k—\ &=1 ( N 1 При больших N последняя сумма приближенно равна площади области, лежащей ниже кривой у = хп и ограниченной прямыми к —0 и x = N, т. е. Af"+1/(n4-0- Отсюда следует, что при боль- ших N E(X)«[n/(n+l)]W. (3.7) Если в городе имеется /V=1000 машин и производится случайная
§3. Примеры и приложения 241 выборка объема п=10, то математическое ожидание максимального наблюденного регистрационного номера приближенно равно 910. В прикладной статистике наблюденный максимум выборки исполь- зуется для оценки неизвестного истинного значения N. Этот метод применялся во время последней войны для оценки объема произ- водства противника (см. задачи 8 и 9). е) Использование в статистическом критерии. Этот пример х) иллюстрирует практическое применение понятия математического ожидания, позволяющее избежать сложных вычислений, связан- ных с нахождением вероятностных распределений. Споры гриба Sordaria образуются цепочками по восемь элемен- тов. Каждая цепочка может разделиться на несколько частей, и в конечном счете споры отбрасываются группами, содержащими от 1 до 8 спор. Есть основания предполагать, что разрывы семи сое- динений между спорами в цепочке стохастически независимы и ве- роятность разрыва одинакова для всех соединений и равна р. При этих предположениях теоретически возможно найти совместное рас- пределение групп из одной споры, из двух ит. д., но потребуются утомительные вычисления. С другой стороны, для эмпирической проверки гипотез достаточно знать ожидаемые числа групп из од- ной споры, из двух ит. д., а их легко найти. Например, споры, на- ходящиеся на концах цепочки, с вероятностью р становятся одиноч- ными, в то время как для всех других спор эта вероятность равна р\ Следовательно, по правилу сложения математическое ожидание числа одиночных спор, образованных из одной цепочки, опре- деляется формулой 8i=2p+6p2. Аналогичные рассуждения показы- вают, что математическое ожидание числа групп из двух спор рав- но е2=27р+57/7?, где 7=1—р. Подобным образом получаем 83 = =272/7+472/7?, . . 88=77. Математическое ожидание числа всех возможных групп равно 8Х+. . .+s8=1 +7р. (Это очевидно без вы- числений, так как математическое ожидание числа разрывов сое- динений равно 7р и каждый разрыв увеличивает количество групп на 1 ) При реальных наблюдениях в полевых условиях было найдено 7251 спор, образовавшихся, очевидно, из М=907 цепочек (5 спор не было обнаружено). Если применима наша вероятностная модель, то должно иметь место равенство (1+7р) Л^7251, или р=0,168. (Этот довод опирается на интуитивное представление о математи- ческом ожидании и обосновывается законом больших чисел.) Наб- люденное число fh групп должно быть близко к математическому ожиданию Nek. Как показывает табл. 3, различия невелики и нет оснований отвергать нашу модель. *) Этот пример взят из речи Д. Р. Кокса при его вступлении в должность в Бербек-Колледже (Лондон) в 1961 г. Кокс ссылается на работу Ingold С, Т,, Had- land S. А,4 New Phytologist, 58 (1959), 46—57,
242 Гл. IX. Случайные величины; математическое ожидание Таблица 3 Наблюденные числа Д и математические ожидания Afefc чисел групп по k спор в примере «е» k fk Nek k Ik Nek 1 490 458,3 5 200 170,6 2 343 360,8 6 134 131,7 3 265 281,8 7 72 101,1 4 199 219,7 8 272 250,3 § 4. ДИСПЕРСИЯ Пусть X — случайная величина с распределением {/(Ху)}, И пусть л^О — некоторое целое число. Если математическое ожида- ние случайной величины Хг, т. е. Е(Х^) = 24/(ху) (4.1) существует, то оно называется моментом порядка г случайной величины X. Если ряд (4.1) не является абсолютно сходящимся, то говорят, что момент порядка г не существует. Поскольку |Х|Г~1^ < I X |'+ 1, из существования момента порядка г вытекает суще- ствование момента порядка г — 1 и, следовательно, всех моментов меньшего порядка. Моменты играют важную роль в общей теории, но в этом томе будет использоваться только момент второго порядка. Если он су- ществует, то существует и математическое ожидание р=Е(Х). (4.2) Тогда естественно заменить случайную величину X ее отклонением от математического ожидания X—р. Поскольку (х—р)2^2(х?+ +р2), момент второго порядка величины X—р существует, если су- ществует Е(Х2), и определяется по формуле Е ((Х-И)2) = S (х?- 2jixy + ц2) f (Xj). (4.3) 7 Разбивая правую часть на три отдельные суммы, получаем экви- валентную запись в виде Е (X2)—2рЕ (X) + р2 = Е (X2)—р2. Определение. Пусть X — случайная величина, имеющая момент второго порядка Е(Х2), и пусть р=Е(Х) — ее математическое ожидание. Определим величину, называемую дисперсией случайной величины X, формулой Var (X) Е ((X—р)2) Е (X2)—р2. (4.4)
§4. Дисперсия 243 Положительное значение корня квадратного из этого числа (или Нуль) называется стандартным отклонением случайной величи- ны X. Для простоты будем часто говорить о дисперсии распределения, Не указывая соответствующей случайной величины. Примеры, а) Если X принимает значение ±с, каждое с вероят- ностью 1/2, то Var (Х)=с?. б) Если X — число очков, выпавших при бросании симметрич- ной игральной кости, то Var (Х)= (1/6) (1?+2?+. . .+62)—(7/2)2= *=35/12. в) Для распределения Пуассона р (k\ %) среднее равно % (см. при- мер 3, б)), и поэтому для дисперсии получаем %k*p(k-, &)—№== l)p(k— + ГД)— V = l2 = k В этом случае математическое ожидание и дисперсия совпадают. г) Для биномиального распределения (см. пример 3, а)) анало- гичные вычисления показывают, что дисперсия равна ^№b (k\ n, р) — (пру = пр ^kb (k—1; п—1, р)— (прУ~ *= пр {(п — 1) р + 1} — (пр)2 = пру. ► Цолезность понятия дисперсии выявится постепенно, в частности, в связи с предельными теоремами в гл. X. Здесь мы отметим, что дисперсия является, хотя и довольно грубой, мерой разброса зна- чений случайной величины. Действительно, если дисперсия Var(X)=2(%j—H)2/(%j) мала, то каждый член этой суммы тоже мал. Следовательно, значение Xj, при котором \xj—р| велико, должно иметь малую вероятность. Иначе говоря, при малой дисперсии боль- шие отклонения X от среднего р маловероятны. Обратно, большая дисперсия указывает на то, что не все значения случайной величи- ны X лежат вблизи от математического ожидания. Возможно, некоторым читателям поможет следующая механическая интер- претация. Предположим, что механическая система состоит из единичной массы, распределенной вдоль оси х так, что в точке xj сконцентрирована масса /(%/)< Тогда среднее р есть абсцисса центра тяжести, а дисперсия — момент инерции. Ясно, что различные распределения массы могут иметь одинаковые абсциссу центра тяжести и момент инерции, но хорошо известно, что этими двумя величи- нами могут быть описаны некоторые важные механические свойства такой системыв Если X представляет собой некоторую величину, которую можно измерить, типа длины или температуры, то ее численные значения зависят от начала отсчета и единицы измерения. Изменение послед- них означает переход от X к новой величине «Х+&, где а и & — пос- тоянные. Ясно, что Var(X+b)— Var(X), и поэтому Var (аХ+&)=a2Var (X). (4.5)
244 Гл. IX. Случайные величины; математическое ожидание Выбор начала отсчета и единицы измерения является в значитель- ной степени произвольным, и часто за начало отсчета удобнее всего брать среднее, а за единицу измерения — стандартное отклонение. Так мы поступили в гл. VII, 3, когда ввели нормированное число успехов S*= (Sn—пр)/]/ npq. В общем случае, если X имеет среднее р и дисперсию о2, то X—ц имеет нулевое среднее и дисперсию о?, и поэтому у случайной величины Х*=(Х—р)/сг (а>0) (4.6) среднее равно 0 и дисперсия 1. Она называется нормированной слу- чайной величиной, соответствующей X. На языке физики переход от X к X* трактовался бы как введение безразмерной величины. § 5. КОВАРИАЦИЯ; ДИСПЕРСИЯ СУММЫ Пусть X и Y — две случайные величины, определенные на од- ном пространстве элементарных событий. Тогда X+Y и XY тоже случайные величины, и их распределения могут быть найдены пу- тем простой группировки членов совместного распределения X и Yf Наша цель состоит теперь в вычислении Var(X+Y). Для этого вве- дем понятие ковариации, которое будет подробнее проанализиро- вано в § 8. Если {p(xh yk)}— совместное распределение X и Y, то математическое ожидание XY определяется формулой E(XY)=2^P(^, (5.1) при условии, конечно, что ряд сходится абсолютно. Далее, и, следовательно, E(XY) обязательно существует, если существуют Е(Х2) и E(Y2). В этом случае существуют также мате- матические ожидания Иж=Е(Х), p.y=E(Y) (5.2) и величины X—и Y—имеют нулевые средние. Для их произ- ведения по теореме сложения из § 2 имеем Е ((Х-цД (Y—ру)) = Е (XY)-px Е (Y)—ру Е (X) + = = E(XY)-pxpy. (5.3) Определение. Ковариация случайных величин X u Y определя- ется формулой Cov(X, Y)=E((X—рх) (Y—py)) = E(XY) (5.4) Это определение имеет смысл, если Хи Y имеют конечные диспер- сии. Из § 2 мы знаем, что для независимых случайных величин E(XY) = E(X) E(Y). Следовательно, из (5.4) вытекает следующая теорема. . Теорема 1. Если X и Y независимы, то Con (X, Y)=0.
§ 5, Ковариация; дисперсия суммы. , 245 Заметим, что обратное утверждение неверно. Табл. 1 дает при- мер двух зависимых случайных величин, ковариация которых тем не менее равна нулю. Мы вернемся к этому вопросу в § 8. Следую- щая теорема важна, и правило сложения (5.6) для независимых слу- чайных величин постоянно применяется. Теорема 2. Если Xj, ..., Хп—случайные величины с конечными дисперсиями of, ..., о2 и S„ ~ Хх + ... + Xw, то Var (S„) = 2 аП 22 Cov (X,. ХД (5.5) 1 i, k J 2 ) пар (Ху, X^) c j < k. В частности, если Xj взаимно независимы, то Var(SJ = o2 + a2+...+a2. (5.6) Доказательство. Положим [ik = Е (XJ и тп = цх + ... + И»— •=E(S„). Тогда S„—т„ = 2(хл—Р-J и (S„-/nB)«=S(xft-lift)i!+2S(x/-p/) (5.7) Вычисляя математическое ожидание от обеих частей (5.7), полу- чаем (5.5). ► Примеры, а) Биномиальное распределение {b(k\ п, р)}. В при- мере 3, а) случайные величины Xk взаимно независимы. Имеем Е(Х1) = 02.9+Р.р = р и Е(ХА,) = р. Следовательно, о| = р—p2 = pq, и из (5.6) видно, что дисперсия биномиального распределения равна npq. Этот же результат был получен в примере 4, г) непосредственным вычис- лением. б) Испытания Бернулли с переменными вероятностями успеха. Пусть Х^...,Хп—взаимно независимые случайные величины, такие, что Xk принимает значения 1 и 0 с вероятностями соот- ветственно рк и qk=\—pk. Тогда E(XJ = pft и Var(XA) = в=рк—снова полагая SB = Xi+...+X„, из (5.6) имеем п Var (Sn)= 2 Р*<7а- (5.8) А=1 Как в примере 1, д), величину Sn можно интерпретировать как общее число успехов в п независимых испытаниях, каждое из кото- рых заканчивается либо успехом, либо fнеудачей. Тогда р— (pi+... • • .+рп)/п есть средняя вероятность успеха, и вполне естествен-
246 Гл, IX. Случайные величины' математическое ожидание но сравнить описанную ситуацию с испытаниями Бернулли с пос- тоянной вероятностью успеха р. Такое сравнение приводит к пора- зительному результату. Равенство (5.8) можно переписать в виде Var (S„) = np—SpI. Далее, легко показать (элементарными вычислениями или по ин- дукции), что из всех комбинаций {pk}, таких, что ^pk=np> сумма имеет наименьшее значение, когда все pk равны. Отсюда сле- дует, что если средняя вероятность успеха р остается постоянной, то дисперсия Var(Sn) достигает максимума при pi=. . .=рп=р> Итак, получен удивительный результат: изменение pk, или их не* одинаковость, уменьшает величину случайных флуктуаций, кото- рая характеризуется дисперсией1). Например, число пожаров в го- роде за год можно рассматривать как случайную величину; при фик- сированном среднем значении дисперсия максимальна, если вероят- ности пожара для всех строений одинаковы. Если для п машин за- дана средняя производительность р, то производительность все* го комплекса будет наименее равномерной тогда, когда все машины одинаковы, (Приложение к современному образованию очевидно, но оно не обнадеживает.) в) Совпадение карт. Колода из п занумерованных карт раскла- дывается в случайном порядке так, что все п\ возможных располо- жений равновероятны. Число совпадений (число карт, попавших на место, соответствующее их номеру) представляет собой случай- ную величину Sn со значениями 0, 1, . . ., п. Ее распределение ве- роятностей найдено в гл. IV, 4. Среднее и дисперсию можно вычис- лить, исходя из этого распределения, однако следующий способ проще и поучительней. Определим случайную величину Xft, принимающую значения 1 или 0 в зависимости от того, попала ли карта с номером k на k-e место или нет. Тогда Sn=Xi+. . .+ХП. Далее, каждая карта с ве- роятностью 1/п оказывается на k-м месте. Следовательно, P{Xft=? = 1 }=1/лг и P{Xft=0}=(n—1)/м. Поэтому E(Xft)=l/n, и отсюда следует, что E(Sn)=l: в среднем на колоду приходится одно совпа- дение. Чтобы найти Var(Sn), вычислим сначала дисперсию о* случай- ной величины ХА: = 1/л—(1/п)2 = (П_ 1)/Л?. (5.9) Затем найдем E(X;Xft). Произведение X7-Xfe равно 0 или 1, причем последнее имеет место в том случае, когда обе карты с номерами / и k оказываются на своих местах, а вероятность этого события равна J) Более сильные результаты в том же направлении см. в работе Hoeffding W., On the distribution of the number of successes in independent trials, Ann. Math. Statist., 27 (1956), 713—721, О приближении распределением Пуассона см. при- мер гл. XI, 6, б),
g 5. Ковариация; дисперсия сумма 247 1 In, (п— 1). Следовательно, E(X/Xft) = l/[n(n-l)]> _ Cov (Xz, ХА) = l/[n (п—1)]—1/га?== l/[n? (n—1)]. 1 ’ Итак, наконец, V>r(SJ = »!51 + 2^)^(;!=Ij=l. (5.11) Мы видим, что и среднее, и дисперсия числа совпадений равны единице. Этот результат можно использовать в задаче об уга- дывании карт, которая обсуждалась в гл. IV, 4. Там рассматрива- лись три метода угадывания, первый из которых соответствовал совпадению карт. Второй можно описать как последовательность п испытаний Бернулли с вероятностью р=\!п\ в этом случае матема- тическое ожидание числа верных догадок равно пр=\ и дисперсия равна npq=(n—1)/п. Математические ожидания в обоих случаях одинаковы, но большая дисперсия при первом методе указывает на большие случайные флуктуации около среднего и тем самым обе- щает несколько более острую игру. (При колодах более сложного состава различие между двумя дисперсиями станет несколько боль- ше, хотя никогда не будет действительно значительным.) При пос- леднем способе угадывания испытуемый все время называет одну и ту же карту; число верных догадок, очевидно, равно единице, а случайных колебаний вообще нет (нулевая дисперсия). Мы видим, что способ угадывания не может повлиять на математическое ожи- дание числа верных догадок, но от него зависит величина случайных флуктуаций. г) Выбор без возвращения. Предположим, что генеральная сово- купность состоит из b черных и g зеленых элементов и производится Случайная выборка объема г (без возвращения). Число Sh черных элементов в выборке есть случайная величина с гипергеометриче- ским распределением (см. гл. II, 6), поэтому математическое ожида- ние и дисперсия могут быть найдены прямым вычислением. Однако предпочтительнее другой метод. Введем случайную величину Xfe, принимающую значения 1 или 0 в зависимости от того, является ли &-й элемент в выборке черным или нет Из соображений сим- метрии вероятность того, что Xfe=^l, равна b/(&+g), и поэтому Е (ХА) - b!(b + g), Var (X.) = bg/(b + g)K (5.12) Далее, при j=£k произведение X7-Xfe=l, если /-й и k-n элементы вы- борки черные, в противном случае Xj-Xfe=0. Вероятность того, что Х;Х&=1, равна b(b—l)/[(b+g)(b+g--1)], и поэтому E(XyXft) = &(&- 1)/[(&+я) (&+£- ОБ Cov (Х^Х^) = —bg/[(b-j-g)? (b-^-g—1)]. 1 Л >
248 Гл. IX, Случайные величины; математическое ожидание а Таким образом, E(Sr) = r6/(6+g), (5.14) При выборке с возвращением мы имели бы такое же среднее и немного большую дисперсию, а именно rbg/(b-\-g)2. ► § 6. НЕРАВЕНСТВО ЧЕБЫШЕВА1) Мы видим, что малость дисперсии указывает на малую вероят- ность больших отклонений от математического ожидания. Это ут- верждение уточняется неравенством Чебышева, которое является чрезвычайно полезным. Неравенство Чебышева предполагает су- ществование момента второго порядка. Теорема. Для произвольного £>0 Р{|Х|>О<*"-2Е(Х2). (6.1) В частности, если Е(Х)=р, то Р{|Х—р|>/}<Г-2Уаг(Х). (6.2) Доказательство. Если первое неравенство применить к случай- ной величине X—р, то получаем второе неравенство. Используя обозначения § 4, имеем р{|х|>о= 2 5 ^(х7), (б.з) суммирование производится по всем абсолютная величина кото- рых не меньше /. Последняя сумма не превышает Е(Х2), и поэтому (6.1) справедливо. , Неравенство Чебышева нужно рассматривать скорее как теоре- тический инструмент, чем как практический метод оценивания. Важ- ность этого неравенства вытекает из его универсальности, но от утверждений большой общности нельзя ожидать точных результатов в отдельных случаях. Примеры, а) Если X — число очков, выпавших при бросании правильной игральной кости, то (см. пример 4, б)) р=7/2, а?=35/12. Максимум отклонения X от р равен 2,5^3сг/2. Вероятность боль- ших отклонений равна нулю, в то время как неравенство Чебышева утверждает лишь, что эта вероятность меньше чем 0,47. б) Для биномиального распределения {b(k\ п, р)} имеем (см. пример 5, a)) р=яр, в2-—npq. При больших п мы знаем, что P(|S„—пр\ >xVnpq} « 1—ад + Э1(—х). (6.4) Неравенство Чебышева утверждает лишь, что левая часть меньше чем х~--, это, очевидно, намного более слабая оценка, чем (6.4). »)' П, Л, Чебышев (1821—1894),
§7. Неравенство Колмогорова 249 § 7*). НЕРАВЕНСТВО КОЛМОГОРОВА В качестве примера более точной оценки докажем следующее утверждение. Пусть Хр —взаимно независимые случайные величины с математическими ожиданиями = Е (Xft) и дисперсиями af. Положим S^X.+ ...+Х,, (7.1) = Е (SA) = pi4- ... 51 = Уаг(8л) = о1+...+а1. ( } Для каждого />0 вероятность того, что одновременно выполняются п неравенств [</sn, k=l, 2, . . ., и, (7.3) не меньше, чем 1—£“2. При п—\ эта теорема сводится к неравенству Чебышева. При и>1 неравенство Чебышева дает ту же самую оценку для вероят- ности единственного соотношения |Sn—mn\<tsn, так что неравен- ство Колмогорова значительно сильнее. Доказательство, Оценим вероятность х того, что хотя бы одно из неравенств (7.3) не выполняется. Теорема утверждает, что Определим п случайных величин Yv следующим образом: Yv=;l, если ]SV — mv |> tsn, (7.4) но IS*—mk\< tsn для k = 1, 2, ..., v— 1; (7.5) Yv = 0 во всех остальных случаях. Словесно это выражается так! Yv равно 1 для всех тех элементарных событий, для которых первым из невыполняющихся неравенств (7.3) является v-e. Тогда для каждого элементарного события не более чем одна из вели- чин Y* равна 1 и сумма Yx + Y2+ ... + Y„ может принимать только значения 0 и 1. Эта сумма равна 1 тогда и только тогда, когда хотя бы одно из неравенств (7.3) не выполняется, и поэтому x = P{Y1+...+Yn = l}. (7.6) Поскольку Y14- • • • + Y„ равно 0 или 1, имеем 2 Yft^l. Умножая обе части последнего неравенства на (Sn—mn)2 и вычисляя математи- ческое ожидание, получаем п S E(Yft(S„-/n„)2)<S2. (7.7) А= 1 *) В этом параграфе рассматривается специальный вопрос, и при первом чтении его можно пропустить,
250 Гл. IX. Случайные величины, математическое ожидание* Для оценки слагаемых в левой части положим п = тЛ) (SA—Zb (Xv—pv); (7*8) v=/e+l тогда J E (Yft (S„-m„)«) = E (Y* (Sk-mkW Ч-2Е (YAUft (Sk-mk))* + E(YftU£). (7.9) Далее, Uft зависит только от XA+I, .... X„, в то время как Yft и Sfc зависят только от Xj, . ..,ХЙ. Следовательно, Uft не зависит от Yft(Sft—mk), и поэтому E(YftUfc(Sft—mk)) = Е (Y k(Sk—тк)) х X E(Uft) = 0, так как E(Uft) —0. Таким образом, из (7.9) находим Е (Yft (S„-/n„)*)> Е (Yft (Sk-mkY). (7.10) Но Yft#=0 только тогда, когда |Sft—mk\^tsn, так что Yft(Sfe-mft)2->^ Следовательно, объединяя (7.7) и (7.10), получаем s^>^E(YI+...+YJ. (7.11) Поскольку Yf4-...+Yn равняется либо 0, либо 1, математиче- ское ожидание правой части равно вероятности х, определяемой формулой (7.6). Итак, х/?^1, что и утверждалось. ► § 8*). КОЭФФИЦИЕНТ КОРРЕЛЯЦИИ Пусть X и Y—две произвольные случайные величины со сред- ними [Хд. и и положительными дисперсиями о* и с$. Введем соответствующие нормированные случайные величины X* и Y*, определяемые формулой (4.6). Их ковариация называется коэффи- циентом корреляции случайных величин X, Y и обозначается p(X,Y). Итак, используя (5.4), имеем р (X, Y) =Cov (X*, Y*)=Cov (X, Y)/ (зд). (8.1) v* Ясно, что коэффициент корреляции не зависит от выбора начала отсчета и единицы измерения, т. е. для произвольных постоянных tZi, ^2, bt, b2, где Я1>0, я2>0, имеем p(^iX+&i, 02Y+ft2)=p(X, Y). Использование коэффициента корреляции равносильно особой форме записи ковариации х). К сожалению, термин «корреляция» создает неправильное представление о свойствах этого коэффици- ента. Из § 5 известно, что р (X, Y)=0, если X и Y независимы. Важ- но понять, что обратное утверждение неверно. На самом деле коэф- фициент корреляции р (X, Y) может быть равен нулю тогда, когда Y является функцией от X. *) В этом параграфе рассматривается специальный вопрос, и при первом чтении его можно пропустить. х) Физик определил бы коэффициент корреляции как «безразмерную кова- риацию»»
§9. Задача 25| Примеры, а) Пусть X принимает значения ±1, ±2 с вероят- ностью 1/4 каждое. Предположим, что Y=X?. Совместное распре- деление определяется соотношениями р(—1,1)=р(1,1)=р(2, 4)=з =р(—2,4) = 1/4. Из соображений симметрии р(Х, Y)=0, хотя меж* ду Y и X существует функциональная зависимость. б) Пусть U и V имеют одинаковые распределения и Х=и+¥, Y=U—V. Тогда E(XY) = E(U2)—E(V2)=0 и E(Y)=0. Следова- тельно, Cov(X, Y)=0, и поэтому также р(Х, Y)=0. Например, X и Y могут быть соответственно суммой и разностью очков, выпавших на двух костях. Тогда величины X и Y либо обе четны, либо обе не- четны и, следовательно, зависимы. ► Отсюда вытекает, что коэффициент корреляции никоим обра- зом не является исчерпывающей мерой зависимости между X и Y. Однако р (X, Y) связано с линейной зависимостью между X и Y. Теорема. Всегда Ip(X, Y)|<1, причем р(Х, Y)=±l только тогда, когда существуют постоянные а и Ь, такие, что справедливо равенство N=aX-\-b, за исключением, быть может, тех значении Х9 которые принимаются с нулевой вероятностью. Доказательство. Пусть X* и Y* — нормированные случайные величины. Тогда Var(X*± Y*) = Var(X*)±2Cov (X*, Y*)4-Var(Y*) = = 2(1 ±р(Х, Y)). (8.2) Левая часть не может быть отрицательной, следовательно, Jp (X, Y)|<4. Для р(Х, Y) = l необходимо, чтобы Var(X*—Y*)=0, а это значит, что случайная величина X*—Y* принимает с вероятностью единица одно значение. В этом случае X*—Y*=const, и поэтому Y=aX+const, где а=оу!ох. Аналогичное доказательство приме- нимо и к случаю р(Х, Y)=—1. ► § 9. ЗАДАЧИ 1. Семь шаров случайно распределяются по семи ящикам. Пусть Х{— число ящиков, содержащих ровно i шаров. Используя вероятности из таб- лицы в § 5 гл. II, выписать совместное распределение Х2 и Х3. 2. Бросаются две правильные кости. Пусть X — число очков на первой кости и Y—большее из двух выпавших чисел, а) Выписать совместное рас- пределение X и Y. б) Найти математические ожидания, дисперсии и ковариацию* 3. Пусть X, Y, Z—соответственно число выпадений герба, число серий гербов и длина максимальной из этих серий при пяти бросаниях монеты. Составить таблицу из 32 элементарных событий с соответствующими значе- ниями X, Y и Z. Простым подсчетом найти совместное распределение пар (X, Y), (X, Z)s (Y, Z) и распределения величин X + Y и XY. Вычислить математические ожидания, дисперсии и ковариации этих случайных величин. 4. Пусть X, Y и Z — независимые случайные величины, имеющие одно и то же геометрическое распределение {qkp}. Найти а) Р{Х= Y}; б) Р {Х^2 Y}; в) P{X4-Y<Z).
252 Гл. IX/Случайные величины, математические ожидание 5. Продолжение. Пусть U наименьшая из величин X и Y. Положим V = Х — Y. Показать, что U и V независимы1). 6. Пусть Xi и Х2—независимые случайные величины, имеющие распре- деления Пуассона {р (£; Хх)} и {р (Z?; Х2)}. а) Доказать, что Xi + ^2 имеет распределение Пуассона {р (k; Xi + X2)}. б) Доказать, что условное распределение Xi при заданной сумме Xi + X2 есть биномиальное распределение, а именно что Р{Х1 = ^|Х1 + Х2 = /г} = 6(^; n, + (9Л) 7. Пусть Xi и Х2 независимы и имеют одно и то же геометрическое распределение {qkp} (как в задаче 4). Не вычисляя, показать, что условное распределение Хх при заданной сумме Xi4~X2 равномерно, т. е. что Р{Xi= k 1 Xi + X2 = п} = l/(n+ 1), 6 = 0, 9.., n. (9.2) 8. Пусть Xi, X2, . Xr — взаимно независимые случайные величины, каждая из которых имеет равномерное распределение Р {Xz- = 6}=1/V для &=1, 2, ..., N. Пусть Un — наименьшая из величин Xi, Х„, a Vw — наи- большая из них. Найти распределения и V„. Как связана эта задача с задачей об оценке (пример 3, д))? 9. Дополнение к задаче об оценке (пример 3, д)). а) Найти совместное рас- пределение максимального и минимального из наблюденных значений. Особо разобрать случай п — 2. (Указание. Сначала вычислить Р {X г, Y^s}.) б) Найти условную вероятность того, что первые два наблюдения дали j и k, если известно, что Х = г. в) Найти Е(Х2) и затем асимптотическое выражение для Var (X) при А—>оо (при фиксированном п). 10. Имитация симметричной монеты. Для данной несимметричной монеты, такой, что вероятность выпадения герба равна а, имитируем правильную монету следующим образом. Бросаем несимметричную монету дважды. Считаем комби- нацию ГР за успех, а РГ—за неудачу; если ни одно из этих событий не произошло, то повторяем бросания до осуществления любого из них. а) Показать, что эта модель приводит к испытаниям Бернулли с р= 1/2. б) Найти распределение и ма- тематическое ожидание числа бросаний до появления одного из событий ГР или РГ. 11. Задача Банаха о спичечных коробках (пример гл. VI, 8, а)). Показать, что математическое ожидание распределения {иг} определяется по формуле pi = (2/V + l)w0—1. Используя формулу Стирлинга, доказать, что оно прибли- женно равно 2 }/"N/n—1. (При N = 50 среднее примерно равно 7,04.) Указание. Начать с соотношения (N -г)иг = (1/2) (2А +1) иг+j - (1/2) (г +1) ur+f. Использовать тот факт2), что = b 12. Выборочный контроль. Предположим, что изделия, каждое из кото- рых с вероятностью р стандартно, подвергаются контролю с вероятностью р' каждое. Имеем четыре класса изделий, а именно «стандартные и проверен- ные», «стандартные,' но не проверенные» и т. д. с соответствующими вероят- ностями pp'-t pq', p'q, qq'~, где g=l — р, q' = l—pf. Итак, мы имеем дело со сложными испытаниями Бернулли [см. пример гл. VI, 9, в)]. Пусть N — число изделий, прошедших стол контроля (как проверенных, так и непроверенных), прежде чем обнаружено первое бракованное изделие, и пусть К — число х) Геометрическое распределение является единственным определенным на целых числах распределением вероятностей, для которого это утверждение верно. См. Ferguson Т. S., A characterization of the geometric distribution, Amer. Math, Monthly, 72 (1965), 256—260. 2) Этот факт аналитически не очевиден; его можно доказать индукцией по V.
§9. Задачи 253 необнаруженных бракованных изделий среди них. Найти совместное распре- деление N и К и их маргинальные распределения. 13. Продолжение. Найти Е (K/(N +1)) и Cov(K, N). [При промышленном производстве обнаруженное бракованное изделие заменяется стандартным, так что K/(N +1) представляет собой долю брака в партии и является мерой ее качества. Заметьте, что E(K/(N4~1)) неравно Е (К)/Е (N + DJ 14. Пусть X—длина серии (успехов или неудач), начавшейся в первом испытании, в последовательности испытаний Бернулли, а) Найти распределе- ние X, Е(Х), Var (X). б) Пусть Y—длина второй серии. Найти распреде- ление Y, E(Y), Var (Y) и совместное распределение X, Y. 15. Пусть X и Y имеют одно и то же отрицательное биномиальное рас- пределение. Найти условную вероятность Р {X = j | X + Y = k} и показать* что равенство (12.16) гл. II теперь очевидно без всяких вычислений1). 16. Доказать, что если две случайные величины X и Y принимают только два значения каждая и Cov(X, Y) = 0, то X и Y независимы. 17. Дни рождения. Для группы из п человек найти математическое ожидание числа дней в году, на каждый из которых приходятся дни рождения ровно k чело- век. (Предполагается, что в году 365 дней и все размещения дней рождения рав- новероятны.) 18. Продолжение. Найти математическое ожидание числа дней в году, явля- ющихся днем рождения по меньшей мере двух человек. Как велико должно быть п, чтобы это среднее было больше 1? 19. Человек, имеющий п ключей, хочет отпереть свою дверь, испытывая клю- чи независимо один от другого и в случайном порядке. Найти математическое ожи- дание и дисперсию числа испытаний, а) если неподошедшие ключи не исключаются из дальнейших испытаний, б) если они исключаются. (Предполагается, что к двери подходит только один ключ. Точное распределение приведено в гл. II, 7, но для решения этой задачи оно не требуется.) 20. Пусть (X, Y)—случайные величины, совместное распределение кото- рых является триномиальным, т. е. определяется формулой (1.8). Найти Е (X), Var (X) и Cov (X, Y) а) непосредственным вычислением, б) представ- ляя X и Y как суммы п случайных величин и используя методы § 5. 21. Найти ковариацию числа выпадений единицы и шестерки при п бросаниях кости. 22. В задаче об отлове животных (задача 24 гл. VI, 10) доказать, что математическое ожидание числа животных, пойманных при v-м отлове, равно nqpv~1. 23. Пусть X имеет геометрическое распределение р {X =&} = gfep, где /г = 0, 1, ... . Показать, что Var (X)=qp~2. Вывести отсюда, что дисперсия отрицательного биномиального распределения [f (&; г, р)} равна rqp~2 при условии, что г—положительное целое число. Непосредственным вычислением доказать, что это утверждение остается справедливым при всех г > 0. 24. В задаче о времени ожидания (пример 3, г)) доказать, что .. 1 +_..2...._+ +__lz±_ (N— 1)2^(Л/ — 2)2-Г г+1)2 Проверить, что ЛН2Е (Sjy) — (Сумма этого ряда равна л2/6.) Указа- ние. Использовать выражение для дисперсии геометрического распределения, найденное в предыдущей задаче. Var (Sr) = N х) Этот вывод допускает обобщения на более чем две случайные вели, чины. Он принадлежит Wisniewski Т. К. М., Amer, Statistician, 20 (1966), 25.
?54 Гл. IX. Случайные величины, математическое ожидание 25. Пр^мжение. Пусть Yr— число извлечений, необходимых для полу< яения заранее намеченных г элементов (а не любых г различных элементов, Ок в § 3). Найти E(Yr) и Var (Yr). (Замечание. Точное распределение Yr найдено в задаче 12 гл. II, 11, но для решения данной задачи оно не тре- буется.) 26. Задача об анализе крови т). Большому числу N людей нужно сделать ана- лиз крови. Это можно организовать двумя способами, (i) Кровь каждого человека Исследуется отдельно. В этом случае потребуется N анализов, (ii). Кровь k человек смешивается, и анализируется смесь. Если результат анализа отрицате- лен, то одного этого анализа достаточно для k человек. Если же он положителен, фо кровь каждого из k человек нужно исследовать отдельно, и для k человек всего Потребуется k-\-1 анализов. Предположим, что вероятность р положительного результата анализа одна и та же для всех людей и что результаты анализов для различных людей стоха- стически независимы. а) Найти вероятность того, что анализ смешанной крови k человек даст по- ложительный результат. б) Чему равно математическое ожидание числа X анализов при втором спосо- бе исследования? в) Найти уравнение для такого значения k, при котором минимально матема- тическое ожидание числа анализов при втором способе исследования. (Не пы- тайтесь решить это уравнение.) г) Показать, что это значение k близко к 1/V"p и поэтому минимум мате- матического ожидания числа анализов примерно равен 2V р. (Это замеча- ние принадлежит М. С. Раффу.) 27. Структура выборки. Генеральная совокупность состоит из г классов, количества элементов в которых относятся как pi'.pz'. ... \рг. Производится Случайная выборка объема п с возвращением. Найти математическое ожида- ние числа классов, не представленных в этой выборке. 28. Пусть X — число серий альф при случайном размещении г± альф и г2 бет. Распределение X дается в задаче 23 гл. II, И. Найти Е (X) и Var (X). 29. Пусть в урновой схеме Пойа (пример гл. V, 2, в)) Хп равно единице йли нулю в зависимости от того, какой шар извлечен при n-м испытании — черный или красный. Доказать, что р (Х„, Х^) = ?/(£-]-г+<?) при п ф т. 30. Продолжение. Пусть Sn — общее число черных шаров, извлеченных При первых п испытаниях (т. е. 8п = Хх+ • •. +ХП). Найти Е (Sn) и Var(S„). Проверить результат с помощью реккурентной формулы из задачи 22 гл. V, 8. Указание. Использовать результаты задач 19 и 20 гл. V, 8. 31. Выбор по группам. Город разбит на п кварталов, в nj из которых Насчитывается по xj жителей (nf + n2+»»♦ =п). Пусть m = SnjXj[n — среднее число жителей в квартале. Положим д2 — n"1 п/х2—т2. Выбором без возвра- щения случайно отбираются г кварталов, и в каждом из них подсчитывается число жителей. Пусть эти числа равны Xj, Хг соответственно. Показать, что E(X1+...+Xr)=/nr, Var (X, +.,, + Хг)=а*Г^ Г). (При выборе с возвращением дисперсия была бы больше, а именно а2г.) х) Эта задача основана на методике, разработанной Р. Дорфманом во время рторой мировой войны. При использовании своей методики в армейской практике Дорфман добился экономии на 80% . Когда эта задача появилась в первом издании, она привлекла широкое внимание и привела к различным обобщениям, а также к новым приложениям в биологии и промышленности. Основное улучшение заклю- чается во введении более чем двух этапов. См., например, Sobel М., Groll Р. А., Group testing to eliminate efficiently all defectives in a binomial sample, The Bell System Journal, 38 (1959), 1179—1252; Watson G. S., A study of the group screening method, Technometrics, 3 (1961), 371—388; Finucan H, M., The blood-testing prob< Jem, Applied Statistics, 13 (1964), 43—50,
§9. Задачи 255 32. Длина случайной цепи х). Цепь на плоскости х, у состоит из п звеньев единичной длины. Угол между двумя последовательными звеньями равен ±а, где a — положительная постоянная. Каждая из возможностей имеет вероят- ность 1/2, и величины последовательных углов взаимно независимы. Расстоя- ние Ln от начала до конца цепи есть случайная величина, и мы хотим дока- зать, что _ 2\ 1 + cosa _ 1— cos'* 2 * a /п оч E (Ln) = n r-!-------2 *cos a --------гт. (9,3) 4 ' 1— cos a (1— cos a)2 4 7 He ограничивая общности, можно предполагать, что первое звено рас- положено в положительном направлении оси х. Угол между &-м звеном и положительным направлением оси х есть случайная величина где So = O, Sfc = S£_f-\-Xka, а —взаимно независимые случайные величины, принимающие значения ± 1 с вероятностями 1/2, Проекциями k-ro звена на оси х и у будут соответственно cos и sin Следовательно, для 1 /п-1 \2 /п-1 \а Ц =( S cos S ** ) +( 2 sin SA j . (9.4) \fc=o J v=o ) Доказать последовательно по индукции, что при т < п Е (cos S„) — cos" a, E(sinS„) = 0, (9.5) E ((cos Sm).(cos Sn)) = cos'2~'Z2 a-E (cos2 Sro), (9.6) E ((sin SOT) .(sin Sn)) = cos"-"2a-E (sin2 Sw), (9.7) E(Ln) — E (Ln_!)== 1 + 2 cos a-(1—cos'2"1 a)/(l—cos a) (9.8) (где Lo = O) и отсюда получить наконец (9.3). 33. Испытания Бернулли проводятся до тех пор, пока число успехов не достигнет г, где г—фиксированное целое число. Пусть X — число испытаний, которые для этого потребовались. Найти 2) Е (r/Х). (Формула для этого мате- матического ожидания содержит бесконечный ряд, для которого может быть получено конечное выражение.) 34. При случайном размещении г шаров по п ящикам вероятность того, что т ящиков окажутся пустыми, удовлетворяет реккурентной формуле (11.8) гл. II. Пусть тг—математическое ожидание числа пустых ящиков. Используя рекуррентную формулу, доказать, что /пг+1 = (1—п"1) тг и вывести отсюда, что тг — и (1 — 1/и)г. 35. Пусть Sn — число успехов в п испытаниях Бернулли. Доказать, что Е (| S„—пр |) = 2vqb (v; n} р), где v—целое число, такое, что пр < veCnp+1. х) Это двухмерный аналог химической задачи о длине длинной поли- мерной молекулы. Задача иллюстрирует применение к случайным величинам, которые не представляются в виде суммы простых случайных величин. 2) Этот пример иллюстрирует влияние остановки в произвольный момент времени. Если число испытаний п фиксировано, то отношение числа успехов N к числу испытаний п есть случайная величина со средним р. Часто оши- бочно предполагают, что то же самое верно и в нашем примере, где число успехов г фиксировано, а число испытаний зависит от случая. Если р=1/2 и г = 2, то Е(2/Х) = 0,614 вместо 0,5; при г=3 находим Е (3/Х) =0,579.
256 Гл. IX. Случайные величины; математическое ожидание Указание. Величина в левой части равна 2 2 (пР—( ь ) k=o Другая возможность: использовать формулу (10.7) гл. VI. 36. Пусть {XjJ — последовательность взаимно независимых одинаково распределенных случайных величин. Предположим, что Xfe принимает только положительные значения и что существуют математические ожидания E(X/j) = a и Е (Х^1) — Ь. Положив Srt= Xj + ... + Х„, доказать, что Е (S^х) конечно и Е (XfeS^1) = при k=\, 2, п. 37. Продолжение 1). Доказать, что Е (S^/Sn) = m/n, если т «С п3 Е (SZ7Z/SZZ) = 1(т — п) аЕ (S/)# если т^п, 38. Пусть Xjj ,Хп — взаимно независимые одинаково случайные величины со средним т и дисперсией о2. s= (Xi+8,.+Хп)/п, доказать, что2) / п \ [1/(п—1)]е( = \Л=1 / распределенные Положив X = 39. Пусть Xf-, Хп — взаимно независимые случайные величины, U — функция от Xi, ... , Xk и V—функция от Xfc + i, ,Хд. Доказать, что U и V — взаимно независимые случайные величины. 40. Обобщенное неравенство Чебышева. Пусть ф (л) > 0 монотонно возра- стает при х > 0; предположим, что существует Е (<р (| X |)) = М. Доказать, что Р {| X | /} С М/ф (0, 41. Неравенство Шварца. Для любых двух случайных величин X и Y с конечными дисперсиями справедливо неравенство Е2 (X Y) Е (X2) Е (Y2). Доказать это, используя тот факт, что квадратичная форма E((/X-f-Y)2) не- отрицательна. ^) Чжун Кайлай заметил, что результаты этой задачи можно получить из результата задачи 36. 2) Иначе это можно выразить так: (Х& —Х)2/(ц —1) является несмещен* ной оценкой для о2.
ГЛАВА X ЗАКОНЫ БОЛЬШИХ ЧИСЕЛ § 1. одинаково распределенные случайные величины Предельные теоремы для испытаний Бернулли, установленные в гл. VII и VIII, являются частными случаями общих предельных теорем, которые в данном томе не рассматриваются. Однако для того, чтобы установить новую точку зрения на математическое ожи- дание случайной величины, мы рассмотрим здесь хотя бы некоторые формулировки закона больших чисел. Связь между испытаниями Бернулли и теорией случайных вели- чин станет яснее, если мы рассмотрим зависимость числа успехов Sn от числа испытаний п. При каждом испытании Sn возрастает на 1 или 0, и мы можем записать это в виде Sn = Xi+. . .+ХП, (1.1) где случайная величина Xfe принимает значение 1 в случае успеха £-го испытания и значение 0 в случае неудачи. Следовательно, Sn есть сумма п взаимно независимых случайных величин, каждая из которых принимает значение 1 или 0 с вероятностями р и q соот- ветственно. Отсюда остается только один шаг до того, чтобы рас- смотреть суммы вида (1.1), где Xfe — взаимно независимые случай- ные величины с произвольными распределениями. Согласно (сла- бому) закону больших чисел из гл. VI, 4, для больших п весьма правдоподобно, что среднее число успехов Sn/n близко к р. Это ут- верждение является частным случаем следующей теоремы. Закон больших чисел. Пусть {Xfe} — последовательность вза- имно независимых одинаково распределенных случайных величин. Если математическое ожидание p = E(Xfe) существует, то для любого 8>0 при п-^оо Р{|(Хх+. . . + Хп)/п-р|>8}->0. (1.2) Иначе говоря, вероятность того, что среднее Sn/n будет отличать- ся от математического ожидания меньше чем на произвольно за- данное 8, стремится к 1. В таком общем виде теорема впервые была доказана А. Я. Хин- чиным г). Предыдущие доказательства проводились при излишнем *) Khintchin A. Comptes rendus de I’Academie des Sciences, Paris, 189 (1929), 477—479. Между прочим, читатель должен иметь в виду предостере- жение, сделанное в связи с законом больших чисел для испытаний Бернулли в конце § 4 гл. VI. £ № 221
258 Гл. X. Законы больших, чисел ограничении, состоявшем в требовании конечности дисперсии х) Var(Xft). Однако для этого случая существует гораздо более точ- ный результат, обобщающий предельную теорему Муавра — Дал- ласа для испытаний Бернулли, а именно следующая теорема. Центральная предельная теорема. Пусть {Xft} — последова- тельность взаимно независимых одинаково распределенных случай- ных величин. Предположим, что математическое ожидание р=з = Е(Ха) и дисперсия o?=Var(Xft) существуют, и положим Sn=3 — Xi+. . ,+ХЛ. Тогда для любого фиксированного (3 Р {(S„-ng)/(o/n) <₽}->$)? (₽). | (1.3) Здесь 91 (х) — нормальное распределение, определенное в гл. VII, 1. Эта теорема принадлежит Линдебергу * 2); А. М. Ляпу- нов и другие авторы доказывали ее раньше при более ограничитель- ных условиях. Следует отметить, что эта теорема является только частным случаем гораздо более общей теоремы, формулировка и до- казательство которой приводятся в томе 2. Здесь мы отметим, что утверждение (1.3) сильнее, чем (1.2), так как (1.3) дает оценку для вероятности того, что разность |n”xSn—р| больше чем о/Кп. С дру- гой стороны, закон больших чисел (1.2) справедлив даже в том слу- чае, когда случайные величины Xfe не имеют конечной дисперсии, и, следовательно, он применим к более общему случаю, чем цент- ральная предельная теорема. По этой причине мы дадим независи- мое доказательство закона больших чисел, но сначала проиллюст- рируем эти две теоремы примерами. Примеры, а) Пусть в последовательности независимых бросаний симметричной кости Xfe — число очков, выпавших при £-м броса- нии. Тогда E(Xfe)-(l+2+3+4+5+6)/6-3,5 и Var(XZl)-(l?+22+32+42+52+62)/6—(3,5)2-35/12. Закон боль- ших чисел утверждает: правдоподобно, что для больших п сред- нее число очков Sn/n будет близко к 3,5. Согласно центральной пре- дельной теореме, P{|S„ —3,5n| <a/35^712}«sji(a)—9i(— a). (1.4) В случае п=1000 и а=1 получаем P{3450<Sn<3550 }«0,68. Для а=0,6744... правая часть в (1.4) равна 1/2, поэтому для Sn шансы находиться внутри интервала 3500±36 или вне его примерно оди- наковы. х) А. А. Марков показал,' что достаточно существования Е (| Х^ | х+й) для некоторого а > 0. 2) Lindeberg J. W., Eine neue Herleitung des Exponentialgesetzes in der Wahr- scheinlichkeitsrechnung, Mathematische Zeitschrift, 15 (1922), 211—225,
§ I. Одинаково распределенные случайные величины 259 б) Выборка. Предположим, что в генеральной совокупности, состоящей из N семей, Nk семей имеют ровно по k детей (Л=0, 1,. . ^Nk=N). Если семья выбирается случайным образом, то число де- тей в ней является случайной величиной, принимающей значение v с вероятностью pv=Nv/N. При выборе с возвращением выборку объема п можно рассматривать как п независимых случайных ве- личин или «наблюдений» Xf, . . Хп, имеющих одинаковое распре- деление; Sn/n является средним значением выборки. Согласно зако- ну больших чисел, среднее значение достаточно большой случайной выборки будет, вероятно, близким к т. е- к среднему значению генеральной совокупности. Центральная пре- дельная теорема позволяет оценить вероятную величину расхож- дения между этими величинами и определить размер выборки, не- обходимый для надежных оценок. На практике р и неизвестны, однако во многих случаях нетрудно получить предварительную оценку для о2, и всегда можно заключить о? в надежные границы. Если необходимо, чтобы с вероятностью не меньшей 0,99 среднее значение выборки 8п/п отличалось от неизвестного среднего значе- ния генеральной совокупности ц меньше, чем на 1/10, то объем вы- борки должен быть взят таким, чтобы Р{| (S„—< 1/10} >0,99. (1.5) Корень уравнения 51?(%)——х)=0,99 равен х=2,57... и, следо- вательно, число п должно удовлетворять неравенству К^/(Юа)> >2,57, или я>660о2. Осторожная предварительная оценка для о2 дает возможность найти требуемый объем выборки. Аналогичные ситуации встречаются довольно часто. Так, когда эксперимента- тор определяет среднее из п измерений, он также полагается на за- кон больших чисел и использует среднее значение выборки в ка- честве оценки для неизвестного математического ожидания. На- дежность оценки может быть выражена только через о2, и обычно мы вынуждены использовать довольно грубые оценки для о2. в) Распределение Пуассона. В гл. VII, 5 мы показали, что при больших X распределение Пуассона {р (k\ X)} можно аппроксимиро- вать нормальным распределением. На самом деле этот факт явля- ется непосредственным следствием центральной предельной теоремы. Предположим, что случайные величины Xft имеют распределение Пуассона {/?(£; у)}. Тогда Sn имеет распределение Пуассона {p(k\ пу)} с математическим ожиданием и дисперсией, равными яу. На- писав Л вместо яу, мы приходим к выводу, что при я~> 2 (1.6) k < %+eW где суммирование производится по всем k, меньшим чем %+PJ/X Теперь очевидно, что утверждение (1.6) справедливо и в том случае, когда Ъ оо произвольным образом. Эта теорема используется в S>*
260 Гл, X. Законы больших чисел теории суммирования расходящихся рядов и представляет общий интерес. Оценки разности выражений, стоящих справа и слева в равенстве (1.6), можно получить из общей теории. ► Замечание о случайных величинах, не имеющих математического ожидания Если математическое ожидание р, не существует, то и закон больших чисел, и центральная предельная теорема становятся бес- смысленными, но их можно заменить более общими теоремами, даю- щими аналогичную информацию. В современной теории случайные величины, не имеющие математических ожиданий, играют важную роль, и многие времена ожидания и возвращения в физике оказы- ваются величинами такого типа. Это справедливо даже для простой игры с бросанием монеты. Предположим, что п монет подбрасываются поодиночке. Обозна- чим через Xfe время ожидания до первого момента, когда у &-й мо- неты число выпавших решеток будет равно числу выпавших гер- бов. Случайные величины взаимно независимы и одинаково рас- пределены; каждая случайная величина Xfe принимает только по- ложительные четные значения и P{Xft=2r}=/2r, причем распреде- ление вероятностей {f2r} определяется формулой (3.7) гл. III. Сумма Sn —Х14-. . .+ХП имеет такое же распределение, как и вре- мя ожидания до n-го момента, когда число выпавших гербов равно числу выпавших решеток. Такое же распределение имеет момент n-го возвращения в начало в симметричном случайном блуждании. Как показано в теореме 4 гл. III, 7, распределение Sn имеет вид Р {S„ < п2х} —2[1-9Ц1/Гх)]. (1.7) Итак, мы получили предельную теорему того же типа, что и цент- ральная предельная теорема, с той заметной разницей, что теперь предельное распределение имеет случайная величина Sn/n2, а не Sjn, как ранее, С точки зрения физики случайные величины Xft можно интерпретировать как независимые измерения некоторого параметра, и наша предельная теорема утверждает, что среднее (Xi+. . .+XJM возрастает по вероятности линейно вместе с п. Этот парадоксаль- ный результат нельзя отбросить как патологический случай, по- скольку оказывается, что Xft — типичные времена ожидания, по- лучающиеся при рассмотрении многих физических и экономических процессов. Предельная теорема (1.7) является также типичным пред- ставителем многих современных предельных теорем для случайных величин, не имеющих математического ожидания х). х) Аналоги закона больших чисел для случайных величин, не имеющих мате- матического ожидания, приводятся в § 4 и в задаче 13, Неожиданные следствия утверждения (1.7) подробно обсуждались в гл, III»
$2, Доказательство закона больших чисел 261 § 2*). ДОКАЗАТЕЛЬСТВО ЗАКОНА БОЛЬШИХ ЧИСЕЛ Без ограничения общности можно предположить, что jx=E(Xfe)=* —0. В противном случае вместо Х& следует рассматривать Xfe—р, что привело бы просто к замене обозначений. В частном случае* когда дисперсия a2=Var(X/l) существует, закон больших чисел яв- ляется тривиальным следствием неравенства Чебышева (6.1), гл. IX, согласно которому P{|SJ>/}<na2//2. (2.1) При t—гп правая часть стремится к 0 при оо, следовательно, утверждение (1.2) справедливо. Более сложным является случай, когда дисперсия не существу- ет. При этом предположении доказательство основывается на уни- версальном методе усечения, который обычно используется при вы- воде различных предельных теорем. Пусть б — фиксированное по- ложительное число, которое мы определим позже. Для каждого п определим следующие п пар случайных величин: Uft = Xft, Vft = 0, если|Хй|<бп, UA = 0, Vft = XA, если|Хй|>бп. { ) Здесь k=l, . . п и следует помнить о зависимости случайных ве- личин Ufe и Уд от п. Тогда Хд=Щ+Уд. (2.3) Для доказательства закона больших чисел достаточно показать, что для заданного &>0 постоянная б может быть выбрана таким об- разом, что при п -> оо Р {| Ui + • • • + U„ | > (1/2) еп} —>0 (2.4) и Р{|У1+...+Уп|>(1/2)е/г}->0. (2.5) Обозначим возможные значения случайных величин Х;- через Xi, хъ, . . ., а вероятности, с которыми Х7- принимают эти значения, через f(xj). Пусть а= Е(|Х;|), т. е. а=2|*/1Н*/)- (2-6) / Случайная величина Ui ограничена величиной бп, и, следовательно, E(U2)<a6n. (2.7) Так как случайные величины Ur, .... Un взаимно независимы и имеют одинаковые распределения, то Var (Ut + ... + U„) п Var (Ux) < пЕ (U?) < абп2. (2.8) *) Этот параграф может быть опущен при первом чтении,
262 Гл. X* Законы больших чисел С другой стороны, из определения случайных величин U& следует, что при П -> оо E(U1)->E(Xi)=0. (2.9) Отсюда получаем, что при достаточно большом п имеет место нера- венство E((Ui+. . .+Un)?)<2a6n?. (2.10) Теперь соотношение (2.4) сразу следует из неравенства Чебы- шева (6.1) гл. IX, согласно которому P{|Ui+. . .+UJ>(l/2)en}<8a6/e?. (2.11) Выбирая 6 достаточно малым, мы можем сделать правую часть сколь угодно малой, и поэтому соотношение (2.4) справедливо. Что касается соотношения (2.5), то заметим, что, согласно ос- новному неравенству (7.6) гл. I, P{Vi+. . .+Vn#=0}<nP{V1^0}. (2.12) Для произвольного 6>0 имеем P|Vx^0} = P{|XI|>6n} ш 2 /(%/)< I Ху | > &п <[1/(М 2 (2.13) | Xj I >бП Последняя сумма стремится к 0 при оо. Следовательно, выра- жение, стоящее в левой части неравенства (2.12), также стремится к 0. Этим утверждением, более сильным, чем (2.5), и завершается доказательство теоремы. ► § 3. ТЕОРИЯ «БЕЗОБИДНЫХ» ИГР При дальнейшем анализе смысла закона больших чисел мы бу- дем пользоваться традиционной терминологией игроков, хотя на- ши рассуждения в равной степени допускают и менее легкомыслен- ные приложения, а два наших основных предположения более ре- альны в статистике и физике, чем в игорном доме. Во-первых, пред- положим, что игрок обладает неограниченным капиталом, поэтому никакой проигрыш не приведет к окончанию игры. (Отказ от этого предположения приводит к задаче о разорении игрока, которая всег- да интригует изучающих теорию вероятностей. Эта задача играет важную роль в последовательном анализе Вальда и в теории сто- хастических процессов, и мы вернемся к ней в гл. XIV.) Во-вторых, предположим, что игрок не имеет права прервать игру в произволь- ный момент; число испытаний п должно быть фиксировано заранее и не зависеть от хода игры. (В действительности игрок, обладаю- щий неограниченным капиталом, может дождаться серии удач и в подходящий момент прекратить игру. Такого игрока интересует не
$ 3. Теория «безобидных^ игр 263 вероятное состояние в заданный момент, а только максимальные флуктуации, которые можно считать правдоподобными при боль- шом числе партий и которые описываются законом повторного ло- гарифма, а не законом больших чисел (см. гл. VIII, 5).) В дальнейшем случайная величина Xfe будет обозначать выигрыш (положительный или отрицательный) игрока в й-ц партии. Тогда сумма Sn=Xi+. . . + ХП является общим выигрышем в п незави- симых партиях. Если за право играть игрок уплачивает (не обя- зательно положительный) взнос р/ перед каждой игрой, то общий уплаченный взнос в п партиях и общий чистый выигрыш соответст- венно равны /гр' и Sn—/гр'. Когда существует математическое ожи- дание p,=E(Xfe), применим закон больших чисел, и поэтому, грубо говоря, при больших /г весьма правдоподобно, что разность Sn—/гр, окажется малой по сравнению с /г. Поэтому, если р/ меньше р,, то при больших /г игрок, вероятно, будет иметь выигрыш порядка п (р—р,'). По тем же соображениям взнос р,'>р практически навер- няка приводит к убытку. Короче говоря, случай р,'<р, благоприятен для игрока, тогда как случай р'>р неблагоприятен. Заметим, что мы еще ничего не говорили о случае р/=ц. В этом случае единственно возможный вывод состоит в том, что при доста- точно большом п общий выигрыш или проигрыш Sn—щь будет а очень большой вероятностью малым по сравнению с п. Но неизвест- но, что вероятнее для Sn—/гр: оказаться положительным или отри- цательным, т. е. неизвестно, будет ли игра выгодной или разори- тельной. Это не было учтено в классической теории, которая назы- вала взнос р,'=р «безобидной» ценой и игру с таким взносом «без- обидной». Столь многообещающее и привлекательное название при- водило к многочисленным заблуждениям. Следует понимать, что «безобидная» игра может быть явно разорительной для игрока. > В игровых и других простых ситуациях, в которых случайная величина Х& имеет конечную дисперсию, можно оправдать понятие «безобидная игра», но, когда дисперсия бесконечна, употребление этого термина совершенно не оправдано. Нет оснований считать, что общий чистый выигрыш Sn—/гр' будет колебаться около нуля. Действительно, можно привести примеры «безобидных» игр х), в которых вероятность того, что игрок потерпит чистый убыток* стремится к единице. Закон больших чисел утверждает, что, ве- роятно, этот убыток будет величиной меньшего порядка, чем п. Однако, кроме этого, ничего более утверждать нельзя. Если ап — произвольная последовательность, такая, что ап/п->0, то можно придумать «безобидную» игру, в которой вероятность того, что в п партиях общий чистый убыток превысит ап, стремится к единице. В задаче 15 приводится пример игры, в которой игрок практически х) Feller W., Note on the law of large numbers and «fair» games, Ann, Math, Statist., 16 (1945), 301—304,
264 Гл. X. Законы больших чисел может быть уверен, что его убыток превысит n/log п. Эта игра яв- ляется «безобидной», и взнос за участие в каждой партии равен еди- нице. Трудно себе представить, что игрок будет считать игру «без- обидной», если он практически уверен в том, что будет нести по- стоянно увеличивающийся убыток. Было бы ошибкой считать эти явления неестественными или не имеющими практического значения. Пренебрежение случайными величинами, не имеющими математического ожидания, нанесло большой ущерб приложениям, так как эти случайные величины иг- рают существенную роль даже в простейших случайных процессах. Например, случайное блуждание (или игра с бросанием монеты), обсуждавшееся в гл. III, служит прототипом многих стохастиче- ских процессов в физике и экономике. Как было показано в гл. III, время ожидания и время первого возвращения в этом случайном блуждании не имеют математических ожиданий и поэтому подвер- жены случайным флуктуациям, так что возникает парадокс, не сог- ласующийся с нашей интуицией. Несовершенная интуиция, так же как и многие современные приложения теории вероятностей, находятся под сильным влиянием традиционного недопонимания смысла закона больших чисел и распространенного представления о так называемом законе о среднем. Это наследство классической тео- рии, в которой математический анализ неизбежно переплетался с эмпирическими и метафизическими соображениями и в которой о различными предельными теоремами связывалось нечто таинст- венное х). Вернемся к «нормальной» ситуации, при которой существует не только математическое ожидание Е(ХД но и дисперсия Var(Xfe). В этом случае закон больших чисел дополняется центральной пре- дельной теоремой, из которой следует, что при «безобидной» игре весьма правдоподобно, что чистый выигрыш Sn—пр в результате продолжительной игры будет иметь величину порядка Кп и при больших п он с равными шансами будет положительным или от- рицательным. Таким образом, если центральная предельная тео- рема применима, то термин «безобидная игра» оказывается оправ- данным, но даже в этом случае мы имеем дело с предельной теоремой, что подчеркивается словами «в результате продолжительной игры». Чтобы проиллюстрировать это, рассмотрим игровой аппарат, опустив в который доллар игрок может с вероятностью 10~6 вы- играть 106—1 долларов либо потерять опущенный доллар. Здесь мы имеем испытания Бернулли, и игра «безобидна». Сыграв миллион раз, игрок уплатит за это миллион долларов. Он может выиграть 0, 1, 2,... раз. Согласно приближению Пуассона для би- х) Изучающие современную теорию вероятностей, возможно, будут удивлены, узнав, что еще в 1934 г. ведущие специалисты могли сомневаться в возможности сформулировать основные предельные теоремы теории вероятностей чисто авали* тически,
§ 4. Петербургская игра 265 номиального распределения, вероятность выиграть ровно k раз с точностью до нескольких десятичных знаков равна е”1/#!. Таким образом, с вероятностью 0,368... игрок потеряет миллион и с той же вероятностью он окупит свои расходы; с вероятностью 0,184... он может выиграть один миллион и т. д. Здесь 106 испытаний экви- валентны одному-единственному испытанию при игре с выигрышем, имеющим распределение Пуассона. Такая игра может быть осу- ществлена сравнением двух больших колод карт, как это описано в гл. IV, 4. На практике бессмысленно ожидать выполнимость закона боль- ших чисел после трех или четырех сравнений. По той же причине не имеет смысла применять закон больших чисел в примере с игро- вым аппаратом, пока не произведено много миллионов испытаний. К этой же схеме относится страхование от пожара, автомобильных катастроф и т. д.; риску подвергается огромная сумма, но соот- ветствующая вероятность очень мала. Кроме того, страхование про- исходит только один раз в год, так что число испытаний п никогда не становится большим. Для застрахованного игра будет «небезобид- ной», но тем не менее экономически выгодной; закон больших чи- сел здесь ни при чем. Что касается страховой компании, то она име- ет дело с большим числом игр; но так как дисперсия велика, то воз- никают случайные флуктуации. Страховые премии должны быть такими, чтобы предотвратить огромный убыток в отдельные годы, и поэтому компания имеет дело скорее с задачей о разорении, чем с законом больших чисел. § 4*). ПЕТЕРБУРГСКАЯ ИГРА В классической теории понятие математического ожидания не было четко отделено от определения вероятности и в обращении с ним не было достаточной математической строгости. Поэтому изу- чение случайных величин, не имеющих математических ожиданий, сталкивалось с непреодолимыми трудностями, и даже сравнительно недавние дискуссии кажутся странными тому, кто изучает совре- менную теорию вероятностей. Важность случайных величин, не имеющих математических ожиданий, была подчеркнута в предыду- щем параграфе, и вполне естественно привести здесь пример анало- га закона больших чисел для этих величин. С этой целью мы рас- смотрим известный парадокс петербургской игры * х). В петербургской игре каждое испытание состоит в бросании правильной монеты до тех пор, пока не выпадет герб; если это слу- чится при г-м бросании, то игрок получает 2Г долларов. Иначе го- воря, мы имеем дело с независимыми случайными величинами, ко- *) Этот параграф может быть опущен при первом чтении. х) Этот парадокс был рассмотрен Даниилом Бернулли (1700—1782). Отметим, что испытания Бернулли были названы в честь Якова Бернулли,
266 Гл. X. Законы большак чисел торые принимают значения 2х, 22, 23, ... с вероятностями 2"1, 2“2, 2~3, ... соответственно. Математическое ожидание формально оп- ределяется суммой 2хг/(хг), в которой хг—2г и ?(хг)=2~г, так что каждое слагаемое равно единице. Таким образом, в этой игре не существует конечного математического ожидания и закон больших чисел неприменим. Ясно, что игра станет менее благоприятной для игрока, если изменить правила и установить, что игрок не получа- ет ничего, если желаемый результат не будет достигнут после N бросаний (т. е. решетка выпадет N раз подряд). В этой измененной игре выигрыш имеет конечное математическое ожидание, равное М, и закон больших чисел применим. Из этого следует, что исходная игра будет «благоприятной» для игрока, даже если он платит взнос, равный N, за право играть в одной партии. Это справедливо для каждого N', однако чем больше N, тем больше должно быть чис- ло испытаний, чтобы был вероятен положительный выигрыш, так что бессмысленно говорить о «благоприятной» игре. Классическая теория утверждала, что р/=оо является «безобидным» взносом, но современный студент с трудом поймет туманные рассуждения, при- водившие к этому «парадоксу». Оказывается вполне возможным определить взнос за право учас- тия в петербургской игре таким образом, чтобы она имела все свой- ства «безобидной» игры в классическом смысле, за исключением того, что этот взнос будет зависеть от номера испытания, вместо того чтобы оставаться постоянным. Переменный взнос неудобен в игор- ном доме, однако петербургская игра и без того неосуществима вследствие ограниченности имеющихся денежных средств. В слу- чае конечного математического ожидания |i = E(Xfe)>0 игра на- зывается «безобидной», если при больших п отношение общего вы- игрыша Sn к общему уплаченному взносу еп будет, вероятно, близ- ким к единице (т. е. если разность Sa—еп будет, вероятно, иметь порядок, меньший чем еп). Если математическое ожидание E(Xfe) не существует, то нельзя сохранять взнос за право участия в игре постоянным и надо определить еп иначе. Мы будем говорить, что игра с общим взносом еп является безобидной в классическом смысле, если для каждого 8>0 P{|Sn/en—1|>е}->0. (4.1) Это полный аналог закона больших чисел, где еп=прЛ Закон боль- ших чисел понимается физиком в том смысле, что среднее из п не- зависимых измерений оказывается близким к у. В данном примере среднее из п измерений оказывается близким к еп/п. В тех случаях, когда предельная теорема (4.1) применима, она имеет такое же тео- ретическое и практическое значение, что и закон больших чисел. Покажем теперь х), что петербургская игра становится «без- ' 1) Это частный случай закона больших чисел, из которого легко вывести не- обходимые и достаточные условия выполнения (4.1); см. Feller W., Acta Scientia- rum Litterarum Univ, Szeged, 8 (1937), 191—201.
§5. Случайные величины е различными распределениями обидной» в классическом смысле, если положить еп=п Log п, где ло- гарифм берется по основанию 2, т. е. 2L°s л =п. Доказательство. Используем метод усечения из § 2, однако на этот раз определим случайные величины UA и VA (k—1, 2, ..и) следующим образом: Uft*=Xft, Vft = 0, если Xft^nLogn, (4 2\ UA &= 0, Vft = Xft, если Xfe > п Log п. Тогда + P{VI4-...+V„=/=0}, (4.3) так как событие, стоящее в левой части неравенства, не может произойти до тех пор, пока не произойдет хотя бы одно из событий, стоящих в правой части. Итак, P{Vi-b...+V„^0}<nP{Xi>nLogn}<2/Logn->0. (4.4) Поэтому, чтобы проверить (4.1), достаточно доказать, что Р {| Ui 4- ... 4- U„—п Log п | > ей Log п} —>- 0. (4.5) Положим pn = E(Uh) и o2=Var(UA). Эти величины зависят от п, но одинаковы для Uf, U2....Un. Если г — наибольшее из целых чисел, удовлетворяющих неравенству 2's^n Log п, то рп=г, и, следовательно, для достаточно больших п Log п < < Log п 4- Log Log п. (4.6) Аналогично о* < Е(Щ) = 24-224-... 4-2' < 2'+1<2nLogn. (4.7) Так как сумма иг 4- • • + U„ имеет математическое ожидание и дисперсию по*, из неравенства Чебышева получаем 2 п р<1 U. + • • + > «!*.} < " (4-8) Теперь, согласно (4.6), имеем p„~Logn, и, следовательно, (4.8) эквивалентно (4.5). ► § 5. СЛУЧАЙНЫЕ ВЕЛИЧИНЫ С РАЗЛИЧНЫМИ РАСПРЕДЕЛЕНИЯМИ До сих пор мы рассматривали только случайные величины ХА, имеющие одинаковые распределения. Эта ситуация соответствует повторению одной и той же игры; однако еще интереснее выяснить, что случится, если вид игры будет изменяться на каждом шаге. Для этого не обязательно представлять себе игорный дом; статистик,
268 Гл. X. Законы больших чисел применяющий статистические критерии, занят вполне достойным видом «игры», а в его случае распределение случайных величин ме- няется от одного шага к другому. Для определенности представим себе, что задана бесконечная последовательность распределений вероятностей, так что при каж- дом п мы имеем п взаимно независимых случайных величин Xi, . . . . . ., Хп в заданными распределениями. Предположим, что матема- тические ожидания и дисперсии существуют, и положим Н*-Е(ХЛ), o^Var(X,). (5.1) Сумма S„ == Xj + ... Хп имеет математическое ожидание тп и дисперсию определяемые формулами = = •• (5.2) (см. формулы (2.4) и (5.6) гл. IX). В частном случае одинаковых рас- пределений мы имели mn=np, s2=no2. Говорят, что для последовательности {Xfe} выполняется (сла- бый) закон больших чисел, если при каждом е>0 P{|Sn—т7г|//г>е}0. (5.3) О последовательности {Xk} говорят, что она удовлетворяет цент- ральной предельной теореме, если при любых фиксированных Р {а < (S„-m„)/sn < р} — 91 (P)-9i (а). (5.4) Одна из характерных особенностей теории вероятностей заклю- чается в том, что и закон больших чисел, и центральная предель- ная теорема выполняются для поразительно широкого класса пос- ледовательностей {Xfe}. В частности, закон больших чисел справед- лив каждый раз, когда случайные величины Хк равномерно ограни- чены, т. е. существует такая константа А, что |XJ<X при всех k. Более общее условие, достаточное для того, чтобы выполнялся закон больших чисел, состоит в том, что snln-+0. (5.5) Это утверждение является прямым следствием неравенства Чебы- шева, и доказательство, приведенное в самом начале § 2, здесь пол- ностью применимо. Заметим, однако, что условие (5.5) не является необходимым (см. задачу 14). Известны различные достаточные условия для центральной пре- дельной теоремы, но все они следуют из теоремы Линдеберга х), согласно которой центральная предельная теорема выполняется, если при каждом 8>0 усеченные случайные величины Uft, определен- ные формулами = если |Xfe—| (5 6) 1^ = 0, если | Xft—рЛ | > es„t v ’ 7 2>) См, примечание 2 на стр, 258,
ft 5. Случайные величины с различными распределениями 269 удовлетворяют условиям sn—>oo и п Ж)2е(Щ)->1. (5.7) k=\ Если случайные величины равномерно ограничены, т. е. если |XJ<J4, то случайные величины Ufe = Xft—для всех п на- столько больших, что $п>2Ле“1. Тогда левая часть (5.7) равна L Поэтому из теоремы Линдеберга следует, что любая равномерно ог- раниченная последовательность {Xft} взаимно независимых случай- ных величин удовлетворяет центральной предельной теореме в предположении, конечно, что sn -> оо. Позднее было показано1), что условие Линдеберга также является и необходимым для справед- ливости (5.4). Доказательство этого утверждения будет дано в томе 2; там же приводятся оценки разности между величинами, стоящими в правой и левой частях соотношения (5.4). Мы показали, что в случае, когда случайные величины Xfe име- ют одинаковые распределения, центральная предельная теорема сильнее, чем закон больших чисел. Однако в общем случае это не так, и мы увидим, что центральная предельная теорема применима и к последовательностям, не удовлетворяющим закону больших чисел. Примеры, а) Пусть Z>0 фиксировано, и пусть Х^ = ±&\ причем каждое значение принимается с вероятностью 1/2 (напри- мер, ставка при й-м бросании монеты равна ±&х). Здесь pft = 0, 0^ = #^ и s2 = 12А + 22Л + З2* + ... + п2Х — п2Х+1/(2Х +1). (5.8) Условие (5.5) справедливо при к < 1/2. Следовательно, закон боль- ших чисел выполняется при к < 1/2; покажем, что при к^ 1/2 закон больших чисел не выполняется. При й=1, 2, п имеем | XJ =поэтому при п > >(2%+1)8“2 усеченные переменные совпадают с Xft. Таким образом, условие Линдеберга выполняется и Р { а</(2Х + 1)/пгл+1 S„ < р} —> 97 ф)—(а). (5.9) Следовательно, вероятнее всего, что сумма Sn будет иметь поря- док роста пх+1/2, так что при к^ 1/2 закон больших чисел не выполняется. В этом примере центральная предельная теорема х) Feller W,, Uber den zentralen Grenzwertsatz der Wahrscheinlichkeitsrech- nung, Mathematische Zeitschrift, 40 (1935), 521—559. Получены также обобщения центральной предельной теоремы, применимые к случайным величинам, не име- ющим математических ожиданий. Отметим, что здесь мы рассматриваем только независимые случайные величины; для зависимых случайных величин условие Линдеберга не является ни необходимым, ни достаточным.
270 Гл. X* Законы больших чисел применима для всех Х>0, а закон больших чисел—только при 1/2. б) Рассмотрим две независимые последовательности по 1000 бросаний монеты (или извлечение по 1000 монет из двух урн) и исследуем разность D чисел выпадения герба. Пусть бросания двух последовательностей занумерованы числами от 1 до 1000 и от 1001 до 2000 соответственно, а 2000 случайных величин определены следующим образом- если при &-м бросании выпала решетка, то Х^ = 0, если же выпал герб, то Х^=1 для 1000 и Xk =—1 для k > 1000. Тогда D = X! 4-... Ч~Х2000. Случайные величины Xft имеют среднее значение рй==± 1/2 и дисперсию о&=1/4, поэтому E(D)*=0 и Var(D) = 500. Следовательно, вероятность того, что разность D будет иметь значение в пределах 500а, приблизи- тельно равна 91 (а) — 91 (—а), и случайная величина D сравнима с отклонением S2000— 1000 числа выпадений герба в 2000 бросаний от среднего числа выпадений 1000. в) Приложения к теории наследственности иллюстрируют боль- шое разнообразие выводов, основанных на центральной предель- ной теореме. В гл. V, 5 изучались свойства организма, которые по существу зависят только от одной пары генов (аллелей). Мы пред- полагали, что другие свойства (такие, например, как рост), зависят от совместного действия многих пар генов. Для простоты изложе- ния предположим, что для каждой отдельной пары генов существу- ют три генотипа А А, Аа или аа. Пусть Xi, х2 и х3 — соответствую- щие эффекты этих генотипов. Генотип индивидуума является случайным событием, и вклад отдельной пары генов в конечный результат, рост, есть случайная величина X, принимающая три зна- чения: Xi, х2, х3 с некоторыми вероятностями. Рост зависит от сов- местных вкладов многих таких случайных величин Xj, Х2, . . Хп, и так как каждый из этих вкладов мал, то в первом приближении можно считать, что рост равен сумме Xf+. . .+ХП. Конечно, не все Xk взаимно независимы. Но центральная предельная теорема справедлива также и для широкого класса зависимых случайных величин, и, кроме того, большинство случайных величин Xft, ве- роятнее всего, можно считать независимыми. Эти рассуждения мож- но уточнить; они приведены здесь только для того, чтобы показать, как центральная предельная теорема объясняет тот факт, что эмпи- рические распределения многих биометрических показателей, та- ких, как рост, близки к нормальному распределению. Эта теория позволяет также предсказывать свойства, которые передаются по наследству, например оценивать средний рост детей, зная рост их родителей. Такие биометрические исследования были начаты Ф. Гальтоном и К. Пирсоном х). ' 4) Френсис Гальтон (1822—1911); Карл Пирсон (1857—1936)>
§ 6, Приложения к комбинаторному анализу 271 § 6*). ПРИЛОЖЕНИЯ К КОМБИНАТОРНОМУ АНАЛИЗУ Приведем два примера приложений центральной предельной теоремы к задачам, которые не связаны непосредственно с теорией вероятностей. Оба примера относятся к п\ перестановкам элемен- тов «1, . . ап, причем каждой перестановке приписывается вероят- ность \/п\. а) Инверсии. Говорят, что элемент ah образует в данной переста- новке г инверсий, если он стоит впереди г элементов с меньшими номерами (т. е. элементов, которые предшествуют ah в натураль- ном порядке). Например, в перестановке (a3a6#ia5a2a4) элементы at и а2 не образуют ни одной инверсии, элемент а3 образует две, а4 —ни одной, а. — две и ав — четыре инверсии. В перестановке (я6я5я4я3а2Я1) элемент ak образует k—1 инверсий, а общее число ин- версий равно 15. Число инверсий Xfe, образованных элементом ak, является случайной величиной, а сумма Sn = Xi+. . .+ХП равна общему числу инверсий. Здесь случайные величины Х& принимают значения 0, 1, . . ., k—1, каждое с вероятностью \/k\ поэтому o’! = [1 + 22-|-• • • + (^—1)2]/^—[(^—1)/2]2 = (/г2—-1)/12. > Число инверсий, образованных элементом akf не зависит от относи- тельного расположения элементов alf а2, . . ah__!, и, следователь- но, случайные величины Xk взаимно независимы. Из (6.1) получаем т„ = [1 + 2 + ... + (n-1 )]/2 = n (n —1 )/4 - /г2/4 (6.2) и s2 = (l/12) S (^2—l) = (2/i3 + 3/i2—5n)/72 —/г«/36. (6.3) £=1 При больших п имеем esn>n^UA:, и поэтому случайные вели- чины Uft, входящие в условие Линдеберга, совпадают с Xk. Сле- довательно, применима центральная предельная теорема, и мы приходим к выводу, что число Nn перестановок, для которых число инверсий лежит внутри интервала n2/4±(a/ty\/п3, асимптоти- чески равно п\(а) — 9с (—а)}. В частности, примерно для поло- вины всех перестановок число инверсий лежит внутри интервала n2/4±0,llj/"/^. б) Циклы. Каждую перестановку можно разбить на циклы, т. е. группы элементов, переставляемых между собой. Так, в перестанов- ке (a3ae«ia5a2cz4) элементы aj и а3 меняются местами и оставшиеся четыре элемента переставляются между собой; эта перестановка содержит два цикла. Если элемент стоит на своем естественном мес- те, то он образует цикл, так что тождественная перестановка (aj, ♦) Этот параграф посвящен специальным вопросам и может быть опущен при первом чтении,
£72 Гл. X. Законы больших чисел а2, . • ^п) содержит столько же циклов, сколько и элементов. С другой стороны, циклические перестановки (а2, Яз, . . ., ап, aj, (а3, а±, . . ., ап, а±, а2) и т. д. содержат по одному циклу каждая. При изучении циклов удобно описывать перестановки, указывая стрел- ками, на какие места переходят элементы. Например, запись 1 -> > 3-> 4 -> 1 означает, что элемент «£ переходит на третье место, эле- мент а3 — на четвертое место, а4 — на первое, и третий шаг, таким образом, завершает цикл. Чтобы продолжить это описание, надо начинать со следующего в естественном порядке элемента, т. е. с а2. В новых обозначениях перестановку (а4, а8, alf а3, а2, аъ, fy, аб) можно записать в виде 1 -> 3-> 4 -> 1; 2->5->6->8->2; 7 -> 7. Иначе говоря, мы строим перестановку (аь . . ., ап) при помощи п последовательных выборов. Сначала мы находим место f, занятое «1, затем — место, занятое а^ и т. д. На первом, втором, /г-м шаге имеется п, п—1, . . ., 1 возможностей, и только одна из них завершает цикл. Пусть случайная величина равна 1, если при таком построе- нии цикл завершается на А-м шаге, и равна 0 в противном случае. (В предыдущем примере Хз=Х7 = Х8 = 1 и Xi = X2=X4 = X5 = X6=0.) Очевидно, что Хх = 1 тогда и только тогда, когда элемент стоит на первом месте. Из нашего построения следует, что P{Xfe=l} = |=1/(/г—&+1), Р{Хд=0}= (п—k)/(n—^+1)и случайные величины Xfe взаимно независимы х). Математические ожидания и дисперсии величин Xfe соответственно равны р* = 1/(п—•£+!), = («—£)/(«—£+1)а, (6.4) откуда следует, что тп = 1 -J- 1/2 —J* 1 /3 —Н • • • 1/м log п (6.5) и п S« = S («“k)/(n—k+ I)* 2 ~ log fl. (6.6) /г=1 Сумма Sn = Xf+ ... +ХП равна общему числу циклов. Среднее число циклов равно тп; число перестановок, для которых число циклов заключено между logn-[-aj/"logft и log n + PJ/logn, приблизительно равно zil{9l (|3)—91 (а)}. Более точные оценки даются усовершенствованными вариантами центральной предельной теоремы2). *) Формально распределение случайной величины Х# зависит не только от k* но также и от п. Однако достаточно переупорядочить Х& в обратном порядке, чтобы получить случайные величины с распределением, зависящим только от индекса. (См. также пример гл. XI, 2, д).) 2) Много различных асимптотических оценок, относящихся к комбинаторному анализу, получено в работе Гончаров В. Л., Из области комбинаторного анализа, Изв. АН СССР, серия матем., 8 (1944), 3—48. Использованный здесь метод проще, но имеет меньшую область применимости; см. Feller W., The fundamental limit theorems in probability, Bull, Amer, Math, Soc,, 51 (1945), 800—832,
§7, Усиленный закон больших чисел 273 § 7* *). УСИЛЕННЫЙ ЗАКОН БОЛЬШИХ ЧИСЕЛ Из (слабого) закона больших чисел (5.3) следует, что для каждо- го достаточно большого п весьма правдоподобно, что отклонение IlSn—тп\ окажется малым по сравнению с и. В связи с испытаниями Бернулли уже было указано (гл. VIII), что из этого не следует, что |Sn—тп\/п остается малым для всех больших п; может случить- ся, что закон больших чисел применим, но |Sn—тп\/п продолжает колебаться между конечными или бесконечными границами. Закон больших чисел позволяет утверждать только то, что большие зна- чения |Sn—тп\/п появляются очень редко. Будем говорить, что последовательность Xk удовлетворяет уси- ленному закону больших чисел, если каждой паре 8>0, 6>0 соот- ветствует N, для которого с вероятностью 1—б или большей для любого г>0 выполняются все г+1 неравенств \8п—тп\Щ<г, n = N, N + ], Af + r. (7.1) Грубо говоря, (7.1) означает, что с вероятностью, близкой к еди- нице, | Sn — тп\/п остается малым1) при всех n>N. Критерий Колмогорова. Сходимость ряда 2W (7-2) является достаточным условием для того, чтобы усиленный за- кон больших чисел был применим к последовательности взаимно независимых случайных величин Xk с дисперсией Доказательство. Пусть событие Av состоит в том, что неравен- ство (7.1) не выполняется хотя бы при одном п из интервала 2v~1<n^2v. Очевидно достаточно доказать, что при достаточно большом v и при всех г Р {Л} + Р {Д>+х} + ... + Р {Av+J < б, т. е. доказать сходимость ряда Но если событие Av про- изошло, то это означает, что при некотором п из интервала 2V-1 < п ^2V выполняется неравенство JS„-mJ>8.2v-i, (7.3) и по неравенству Колмогорова (гл. IX, 7) имеем P{A}^4e-2.s2v.2-2\ (7.4) *) Этот параграф посвящен специальным вопросам и может быть опущен при первом чтении. *) В общей теории вводится пространство элементарных событий, соот- ветствующее бесконечной последовательности {Х^}. Усиленный закон больших чисел утверждает тогда, что | Sn—тп \/п стремится к нулю с вероятностью единица. В терминологии теории функций действительного переменного уси- ленный закон больших чисел означает сходимость почти всюду, а слабый вакон больших чисел эквивалентен сходимости по мере.
274 Гл. X* Законы больших чисел -а Поэтому 2 р МЛ < 4е-2 2 2-2v 2 <3 = 4е“2 2 al 2 2’sv < v= 1 v= 1 k = I k- 1 2V <88-^2#, (7.5) fe=l Л чем и завершается доказательство. ► Как пример типичного приложения критерия Колмогорова до- кажем следующую теорему. Теорема. Если взаимно независимые случайные величины Xft имеют одинаковые распределения вероятностей {/(%/)} с конечным математическим ожиданием ц=Е (Xft), то последовательность {Xfe} удовлетворяет усиленному закону больших чисел. Данная теорема, конечно, сильнее, чем слабый закон больших чисел из § 1. Эти две теоремы приводятся отдельно, так как их до- казательства интересны с методологической точки зрения. Отно- сительно обратных утверждений см. задачи 17 и 18. Доказательство. Снова используем метод усечения. Определим две новые последовательности случайных величин, полагая если | Xfe | < ky /7 Uft = 0, V^xfe, euu\Xk\^k. K > Случайные величины взаимно независимы, и мы покажем, что они удовлетворяют критерию Колмогорова. Если о^ = Уаг(ий), то а!<Е(Щ)= 2 (7.7) P/I<fe Для краткости положим 2 (7.8) V- 1 < | Xj I < V Так как математические ожидания Е (Xft) существуют, ряд 2av сходится. Кроме того, из (7.7) следует, что al<aj4-2a2За3..-\-kak (7.9) и со 2 со k оо 8 со i<2Sav<°°- (7.Ю) &=! /г=1 -v= 1 v=l k=v v=l Таким образом, для последовательности {UJ ряд (7.2) сходится. Поскольку Е(и*)==рЛ= 2 *//(*/), (7.11) |ху|<А
g 8. Задачи 275 то p,ft—и, следовательно, + ... + ji„)/n —ji. Поэтому, при- меняя к последовательности {Uft} усиленный закон больших чисел, убеждаемся, что неравенство п л“*2 0*-|*<в (7-12) 6=1 выполняется 6 вероятностью, не меньшей чем 1—6 при всех, n>N, если N выбрано достаточно большим. Остается доказать, что ана- логичное утверждение будет справедливо, если заменить на Xft. Для этого, очевидно, достаточно показать, что N можно выбрать столь большим, что событие = для всех k>N имеет вероят- ность сколь угодно близкую к единице. Это в свою очередь сводит- ся к утверждению, состоящему в том, что с вероятностью единица только конечное число случайных величин Vh отлично от нуля. Со- гласно первой лемме Бореля — Кантелли из гл. VIII, 3, для этого нужно доказать сходимость ряда 2P{Vft=H=0}. Легко видеть, что Pfv.^Of- + р.13) и, следовательно, 2P{v»^o(s: £ £^-' = 1=2>„,<00,(7.14) n=l V=/1 v=l n = l V что и утверждалось. § 8. ЗАДАЧИ 1. Доказать, что закон больших чисел применим в примере 5, а) также и при Центральная предельная теорема выполняется, если —1/2. 2. Установить, будут ли выполнены закон больших чисел и центральная предельная теорема для последовательности взаимно независимых случайных! величин Хй с распределениями, заданными следующим образом а) Р {Xfe= ± 2^} = 1/2; б) Р ± 2^} = 2-(2ys+2\ Р {Xfe = O}=l—2“2*;_ в) P{xft=±q=i/(2Kk), p{xfc=O}=i-i/Kk. 3. Условие Ляпунова (1901). Показать, что выполняется условие Линде- берга, если при некотором 6 > О п (1/4,+6) 2 Е (I Xft |2+б) -> 0. 6=1 4. Пусть Х^,—взаимно независимые случайные величины,' причем при- нимает 2&+1 значений 0, ± L&, ± 2L^? ..., ± kL^ с вероятностью 1/(26 + 1) каждое. Найти условия для констант обеспечивающие выполнение закона больших чисел и/или центральной предельной теоремы для последователь- ности {Xfc}. 5. Решить ту же задачу, если Хй принимает значения и О с вероятностями pki \—2рь соответственно.
276 Гл. X, Законы больших чисел Замечание. В следующих семи задачах рассматривается закон больших чисел для зависимых случайных величин. 6. В задаче 13 гл. V, 8, положим Х^=1, если при ^-мбросании выпала красная грань, и Х^. = 0—в противном случае. Показать, что закон больших чисел неприменим. 7. Пусть {XjJ взаимно независимы и имеют одинаковые распределения с математическим ожиданием р и конечной дисперсией. Доказать, что если Sn = Xx+...+ХЛ, то закон больших чисел не выполняется для последова- тельности {S„j, но выполняется для последовательности anSni если пап—> 0. Указание. Вычислить Var(S1} ..., S„)/n. 8. Пусть {Х^} — последовательность случайных величин, такая, что Х^ может зависеть только от X^_f и X^ + f, но не зависит от всех других Ху. Показать, что закон больших чисел выполняется, если Х^ имеют конечные дисперсии. 9. Доказать, что если совместное распределение величин (Хх, ..., Хп) определено при каждом п, причем дисперсии ограничены, а ковариации отрицательны, то применим закон больших чисел. 10. Продолжение. Заменим условие Cov(Xy, Хд,)^О предположением^ что Cov (Ху, Х*)—>0 равномерно при |/—k\—> оо. Доказать, что выпол- няется закон больших чисел. 11. Доказать, что если | Sn | < си, a Var(SJ > ап2, то закон больших чисел не применим к {X/J. 12. В урновой схеме Пойа (пример гл. V, 2, в)) положим, что Х^ равно 1 или 0 в зависимости от того, был ли k-н извлеченный шар черным или красным. Тогда Sw—число черных шаров при п извлечениях. Доказать, что закон больших чисел к {Х^} не применим. Указание. Использовать результат предыдущей задачи и задачи 30 гл. IX, 9. 13. Взаимно независимые случайные величины Х/г принимают значения г = 2, 3, 4, с вероятностями pr — c/(r2 log г), где постоянная с выбрана так, что Zj Рг — 1- Показать, что выполняется обобщенный закон больших чисел (4.177 если положить еп=-с>п log log п. 14. Пусть {Х„} — последовательность взаимно независимых случайных величин, таких, что Х„=±1 с вероятностями (1—2~Л)/2 и ХЛ=±2Л с вероятностями 2~7г”1. Доказать, что к {Х^} применимы как слабый закон больших чисел, так и усиленный закон больших чисел. (Замечание. Это озна- чает, что условие (5.5) не является необходимым.) 15. Пример разорительной «безобидной» игры. Пусть возможные значения выигрыша при каждом испытании будут 0, 2, 22, 23^ <».; вероятность того, что выигрыш равен 2*, равна pft=l/[2^(*+!)L (8-0 а вероятность нулевого выигрыша равна р^~ 1—(Р1 + р2+“»)- Тогда мате- матическое ожидание величины выигрыша равно |Л == 2 ^Pk = (1 -1/2) + (1 /2 -1/3) + (1/3 -1/4) +... = 1. (8.2) Предположим, что игрок при каждом испытании уплачивает за право участия в игре доллар, так что после п испытаний его чистый выигрыш или про- игрыш равен S„ — п. Показать, что при каждом 8 > 0 вероятность того* что в п испытаниях игрок проиграет более чем (1 — е) п/Log п долларов, стре- мится к единице, причем Log означает логарифм по основанию 2. Иначе говоря,- надо доказать, что Р {Szz —п < — (1 — е) n/Log п}—> 1. (8.3) Указание. Использовать метод усечения из § 4, но в (4.2) заменить гра- ницу nLogn границей n/Logn. Показать, что вероятность того, что11^ = Хй
§ 8. Задачи 277 при всех стремится к единице, и доказать, что Р {I Uf +... + U„-nE (Ui) | < en/Log п} —> I ? 1 — 1/Log п £ (Ux) 1 — (1 +e)/Logns (8.4) (8.5) Подробности см. в статье, указанной в примечании к § 3. 16. Пусть {Хл} — последовательность взаимно независимых одинаково распределенных случайных величин. Предположим, что Хп не имеет конеч- ного математического ожидания и что А—некоторая положительная постоян- ная. Доказать, что с вероятностью единица осуществится бесконечно много событий | Х„ | > Ап. 17. Обращение усиленного закона больших чисел. Доказать, что в предпо- ложениях задачи 16 с вероятностью единица | Sn | > Ап для бесконечно многих п. 18. Обращение критерия Колмогорова. Доказать, что если ряд расходится, то существует последовательность {Xft} взаимно независимых случайных величин с Var {Х^} = о^, к которой неприменим закон больших чисел. Указание. Сначала показать, что сходимость ряда 2Р{| Х„|>еп} является необходимым условием для выполнения усиленного закона больших чисел.
ГЛАВА XI ЦЕЛОЧИСЛЕННЫЕ СЛУЧАЙНЫЕ ВЕЛИЧИНЫ. ПРОИЗВОДЯЩИЕ ФУНКЦИИ § 1. ОБЩИЕ ПОЛОЖЕНИЯ Среди дискретых случайных величин особенно важны величи- ны, принимающие только целые значения &=0, 1, 2, ... * Наиболее общим методом изучения таких случайных величин является метод производящих функций. Как мы убедимся в дальнейшем, этот ме- тод — частный случай метода характеристических функций, кото- рый служит основой для решения многих задач теории вероятно- стей. С более общей точки зрения метод производящих функций от- носится к области операционных методов, широко применяемых в теории дифференциальных и интегральных уравнений. В теории вероятностей производящие функции применялись со времен Муав- ра и Лапласа, но в полной мере возможности этого метода исполь- зовались редко. Определение. Пусть а0) at, а2, ...— последовательность дейст- вительных чисел. Если ряд A(s)=a0+ais+a2s2+. . . (1.1) сходится в некотором интервале —So<Xso, то функция A ($) на- зывается производящей функцией последовательности {aj}. Переменная s сама по себе ничего не обозначает. Если последо- вательность {aj} ограничена, то сравнение о геометрической про- грессией показывает, что ряд (1.1) сходится хотя бы при |$|<1. Примеры. Если а7-^=1 для всех /, то A (s) = l/(l— s). Производя- щей функцией последовательности (0, 0, 1, 1, 1, . . .) будет функция s2/(l—s). Последовательность aj — 1//! имеет производящую функцию es. При фиксированном п последовательность имеет произ- водящую функцию (1+s)". Если X — число очков, выпавших при бросании правильной кости, то распределение вероятностей случай- ной величины X имеет производящую функцию (s+s2+s3+s4+s!+ +$6)/6. ► Пусть случайная величина X принимает значения 0, 1, 2, ... . Удобно ввести специальные обозначения как для распределения величины X, так и для «хвостов» распределения. Мы будем писать Р{Х=/}=Ръ Р{Х>/}=^; (1.2) тогда ?/г Р/?+1 + Р/г+2 + • • • > (1*3)
§ 1. Общие положения 279 Производящими функциями последовательностей {/?у} и будут функции P(s) = p0 + piS + p2s2 + p3s3+..., (1.4) Q(s) = 7o4*7is + <72S24-<z8s34’ ... . (1.5) Так как Р(1)=1, то ряд (1.4) сходится абсолютно хотя бы при •—1<s<1. Коэффициенты ряда (1.5) меньше единицы, поэтому он сходится хотя бы при —1<s<;1. Теорема 1. При—1<s<1 имеем Q(s)=(l—P(s))/(1—s). (1.6) Доказательство. Коэффициент при s" в разложении (1 — s)-Q(s) равен qn — qn_i = — pn, если п>1, и равен <70 = + р24- . • • = e 1 —Ро> если п = 0. Поэтому (1 —s) • Q (s) = 1 —Р (s), что и утверж- далось. Рассмотрим теперь производную Р' (S) = S kp^-t. (1.7) k~ 1 Здесь ряд сходится хотя бы при —1<s<1 . При s—1 правая часть формально сводится к J?kpk;=E(X). Если математическое ожидание существует, то производная Р' (s) будет непрерывной в замкнутом интервале —Если же ряд J^kpk расходится, то Р'($)->оо при s->l. В этом случае мы будем говорить, что X имеет бесконеч- ное математическое ожидание, и писать Р'(1) = Е(Х)—оо. (Если все рассматриваемые величины положительны, то употребление символа оо не приводит к противоречиям). Применяя теорему о среднем к числителю правой части соотношения (1.6), получаем, что Q(s)=P' (о), где число о заключено между s и 1. Так как обе функции монотонно возрастают, из этого следует, что P'(s) и Q(s) имеют одинаковые конечные или бесконечные пределы, которые мы будем обозначать через Р'(1) или Q(l)« Итак, доказана следующая теорема. Теорема 2. Математическое ожидание Е (X) удовлетворяет соот- ношениям Е(Х)»2 J>y=S<7ft, (1-8) /=1 7 k=0 или в терминах производящих функций E(X)=P'(1)=Q(1). (1-9) Дифференцируя формулу (1.7) и используя соотношение Р' (s)=Q(s)—(1—s)Q' (s), тем же способом находим E(X(X-l))=2^-l)pft=P'41)-2Q'(l). (1.10)
280 Гл. XI, Целочисленные случайные величины. Производящие функции Для того чтобы получить дисперсию X, к этому выражению надо прибавить Е(Х)—Е2(Х), что приводит нас к следующей теореме. Теорема 3. Справедливо равенство Var (X) =Р" Щ + Р' (1)—Р'2 (1) =* = 2Q'(1) + Q(1)-Q2(1). (1.11) В случае бесконечной дисперсии P"(s)->oo при s->l. Формулы (1.9) и (1.11) часто дают самый простой способ вы- числения Е(Х) и Var(X). § 2. СВЕРТКИ Если случайная величина X принимает только неотрицательные целые значения, то sx является новой случайной величиной и производящую функцию распределения величины X можно ком- пактно записать в виде E(sx). Если случайные величины X и Y независимы, то независимыми будут и случайные величины $х и sY; поэтому Е (sx+Y) = Е (sx) Е (sY). Мы приведем другое доказательство этого важного результата, так как оно позволит нам получить полезное обобщение. Пусть X и Y — неотрицательные независимые целочисленные случайные величины с распределениями вероятностей Р{Х=/}^ =0] и P{Y=/}=&;. Событие (Х==/, YM) имеет вероятность ajbh. Сумма S—X+Y есть новая случайная величина, и событие S^=r есть объединение несовместных событий (ХМ), Y=r), (ХМ, Y=r—1), . .., (X=r, Y=0). Поэтому распределение =P{S=/*} задается формулой cr == aobr a1br_1 -j“ 2 "F* • • • 4"^*—(2*1) Операция (2.1), сопоставляющая двум последовательностям {ak} и {bk} новую последовательность {ch}, встречается так часто, что удобно ввести для нее специальное название и обозначение. Определение. Пусть {ah} и {bh} — две произвольные числовые последовательности (не обязательно распределения вероятностей). Новая последовательность {сТ}, определяемая формулой (2.1), назы- вается сверткой J) последовательностей {ah} и {bh} и обозначается (2.2) Пример, а) Если ah=bh—1 для всех /г^О, то сй=&+1. Если ah—k, bh=l, то Сд=1 + 2 +. . .+k=k(k+l)/2. Наконец, если а0=а1—1/2, «й=0 для £>2, то Cfe=(&fe+&s_i)/2 и т. д. ► х) Некоторые авторы предпочитают немецкий термин Faltung; французский термин — composition. [В оригинале «convolution» — основной термин, приня- тый в англоязычной литературе»— Перев.]
§ 2. Свертки 281 Пусть последовательности и {bk\ имеют производящие функции A (s) — 2 а/г5* и B(s) = 2 bksk соответственно. Произве- дение A (s) В ($) можно получить почленным перемножением степен- ных рядов для A (s) и B(s). Собирая члены с одинаковыми степе- нями s, убеждаемся, что коэффициент сг при sr в разложении A (s) В (s) задается формулой (2.1). Таким образом, имеет место следующая теорема. Теорема. Если {ак} и \Ьк}—последовательности с производя* щими функциями A (s) и В (в), а {^} — их свертка, то произво* дящая функция C(s)~^cksk равна произведению С A(s) В (s). (2.3) Если X и Y—неотрицательные целочисленные независимые слу- чайные величины с производящими функциями A (s) и B(s), то их сумма X4-Y имеет производящую функцию A(s)B(s). Пусть теперь {aj, {bk\, {ск\, {dk\, ...—какие-либо последо- вательности. Мы можем образовать свертку \ak}*{bk}, затем свертку этой новой последовательности и последовательности {^} и т. д. Производящая функция {ак} * {bk\ * {cj * {dk} равна A(s)B(s)x ХС (s) D (s), и из этого следует, что порядок, в котором обра- зуются свертки, безразличен. Например, \ак} * {Ьк} •» и т. д. Таким образом, свертка является ассоциа- тивной и коммутативной операцией (точно так же, как сложение случайных величин). При изучении сумм независимых случайных величин Хп особый интерес представляет тот частный случай, когда эти величины имеют одинаковые распределения. Если {aj\—общее распределение вероятностей величин Хи, то распределение суммы Sn=Xx+... +ХД будем обозначать {ау}п*. Таким образом, {а7}2* == {а7} * {а,}, {а/3* = {а,}2* »{аД, .. .j (2.4) и вообще {а7}п* = {аДС"-1)* * {яу}. (2.5) Иначе говоря, {аД"* есть последовательность чисел с производя- щей функцией X"(s). В частности, {аД1* совпадает с {ау}, а {аД0* определяется как последовательность с производящей функцией Л°(8) = 1, т. е. как последовательность (1, 0, 0, 0, ...). Примеры, б) Биномиальное распределение. Производящая функ- (п \ kJ pkqn~k равна " /и\ 2 ( ъ ) (ps)ft<?«"ft = (<7 + ps)n. (2.6) Тот факт, что эта производящая функция есть n-я степень бинома q + pSt означает, что {b(k} п, р)} есть распределение суммы Sw
282 Гл. XI. Целочисленные случайные величины. Производящие функции e=Xi+...+X„ п независимых случайных величин с одинаковыми производящими функциями 7 + ps; каждая величина принимает зна- чение нуль с вероятностью q и значение единица с вероятностью р. Таким образом, {b (k- п, p)} = {b(k*t 1, р}”*. (2.7) Представление Sn = Xf -J- ... + ХЛ уже несколько раз использова- лось нами (см. примеры гл. IX, 3, а) и 5, а)). Предыдущее рас- суждение можно обратить и использовать для нового вывода бино- миального распределения. Из мультипликативного свойства (q4- р$)т (q + ps)n = (7 + ps}m*n следует равенство {b(k\ пг, /?)}*{&(&; ft, p)} = {&(&; m~\~n, p)}, (2.8) которое эквивалентно формуле (10.4) гл. VI. Дифференцируя про- изводящую функцию (^-J-ps)", можно совсем просто получить доказательство того, что E(Sn) = np и Var (SJ — npq. в) Распределение Пуассона. Производящая функция распреде- ления p(k\ X) ==e~K№/k\ равна S е~к (Xs)k/k\ = <?-*+Ч (2.9) k = 0 Отсюда следует равенство {p(fe; Х)}^ {р (^; р)Н{Р(£; + < (2.Ю) которое эквивалентно формуле (10.5) гл. VI. Дифференцированием убеждаемся, что и среднее значение, и дисперсия распределения Пуассона равны К (см. пример гл. IX, 4, в)). г) Геометрическое и отрицательное биномиальное распределе- ния. Пусть случайная величина X имеет геометрическое распре- деление Р{Х = £} = ?*р, fe = 0, 1, 2, ... , (2.11) где р и q — положительные постоянные, причем p-\-q~\. Соот- ветствующая производящая функция равна Р i) (<7S)ft = p/(l—<7S)- ’ (2-12) fe = 0 Пользуясь результатами § 1, легко убедиться в том, что Е(Х)=7/р и Var(X)=<?/p3 в соответствии с результатами, полученными в при- мере гл. IX, 3, в). Вероятность того, что в последовательности испытаний Бер- нулли первый успех имеет место после k неудач (т. е. при (&+1)-м испытании), равна qkp, так что X можно интерпретировать как время ожидания первого успеха. Строго говоря, такая интерпрета- ция относится к бесконечному пространству элементарных собы- тий, и преимущество формального определения (2.11) и термино- логии случайных величин состоит в том, что мы можем не беспоко-
§2. Свертка 283 иться о структуре исходного пространства элементарных событий. То же самое верно и для времени ожидания r-го успеха. Если Х& — число неудач между (k—1)-м и k-м успехами, то Sr=Xi+. . .4~ХГ — полное число неудач, предшествующих r-му успеху (a Sr4~r — число испытаний до г-го успеха включительно). Поскольку мы имеем дело с испытаниями Бернулли, то величины Xft взаимно независимы и имеют одинаковое распределение (2.11), так что можно принять это свойство за определение величин Х&. Тогда Sr имеет производящую функцию [p/(l- 9S)]', (2.13) и из формулы разложения бинома (8.7) гл. II сразу получаем, что коэффициент при sk равен f(k\ г, р)^~Г^Рг(-Я)к, k = Q, 1, 2......... (2.14) Отсюда следует, что P{Sr—k}—f(k-, г, р) в соответствии с формулой для числа неудач, предшествующих r-му успеху, которая была выведена в гл. VI, 8. Этот результат можно сформулировать иначе, сказав, что распределение {f(k; г, р)} есть r-кратная свертка гео- метрического распределения, т. е. г, p)} = {qkpy*. (2.15) До сих пор мы считали г целым, но, как это было доказано в гл. VI, 8, отрицательное биномиальное распределение {f(k\ г% р)} сохраняет смысл при любом неотрицательном г, не обязательно целом. Производящая функция по-прежнему задается формулой (2.13), и мы видим, что при г>0 математическое ожидание и дис* Персия отрицательного биномиального распределения равны rq/p и rq/p2, и что p)}*{f(k; r2, p')}={f(k; rf+r2, p)}. (2.16) д) Циклы, В примере гл. X, 6, б) мы рассматривали число циклов в слу- чайной перестановке п элементов. Было показано, что эту случайную вели- чину можно представить в виде суммы S„ = Xi+.,. +ХП п независимых величин, таких, что каждая случайная величина может принимать два значения, 1 и 0, с вероятностями (п — ^+1)“1и (п — k) (п—&-]-!)”1 соответ- ственно. Из этого сразу следует, что производящая функция случайной ве- личины S/2 равна произведению »-1+* п-2+s 1 + s С17) п п— 1 2 1 — ’ V п)' ' ’ Коэффициенты этого многочлена определяют распределение вероятностей слу- чайной величины S„, однако для их явного представления нужно знать числа Стирлинга. Здесь перед нами пример весьма обычной ситуации, когда про- изводящая функция оказывается проще самого распределения вероятностей. Поэтому весьма благоприятно то обстоятельство, что сама производящая функ- ция может дать много полезной информации. ►
284 Гл. У 7. Целочисленные случайные величины. Производящие функции § 3. ВОЗВРАЩЕНИЕ В НАЧАЛО И ВРЕМЕНА ОЖИДАНИЙ В ИСПЫТАНИЯХ БЕРНУЛЛИ В этом параграфе обсуждается несколько важных задач, пред- ставляющих методологический интерес, решение которых иллюст- рирует силу и гибкость метода производящих функций. Результаты играют важную роль в теории случайных блужданий и могут рас- сматриваться как прототип аналогичных результатов в теории диффузий. Они будут получены и другими методами в гл. XIV (см., в частности, § 4 и 9). Для частного случая р = 1/2 эти резуль- таты были получены комбинаторными методами в гл. III. Сравне- ние этих методов проясняет суть дела х). Рассмотрим схему испытаний Бернулли с вероятностью успеха р. Положим Xfe=+1, если й-е испытание привело к успеху, и Xk ——1 в противном случае. Иначе говоря, объектом нашего изу- чения является последовательность взаимно независимых случай- ных величин, принимающих значения +1 и —1 с соответствующими вероятностями р и q. Это описание является самым простым и наиболее естественным, но приводит к несчетному пространству элементарных событий, поскольку предполагает бесконечные испыта- ния. Фактически мы будем вычислять только некоторые вероятно- сти событий, которые определяются конечным числом испытаний, и поэтому никаких принципиальных трудностей не возникает. Можно говорить о фиксированном числе испытаний N и полагать М->оо, но это было бы излишней педантичностью, вредной для вероятностной интуиции. Как обычно, положим Sn-Xx+. . .+Xn, So-0. (3.1) В переводе на образный «игровой» язык это означает, что Петр и Павел играют по единичной ставке, a Sn — чистый выигрыш Петра после п партий. В терминологии теории случайных блужда- ний Sn обозначает положение «частицы», которая передвигается на единицу вправо или влево через одинаковые интервалы време- ни. Случайное блуждание будет несимметричным, если р^=1/2. а. Время ожидания для игры. Событие Si<0, . . ., Sn_<0, Sn-1 (3.2) в игровых терминах означает, что чистый выигрыш Петра впервые оказался положительным в n-й партии. В терминологии теории случайных блужданий первое попадание в +1 произошло при м-м испытании; более естественное описание использует терминологию теории физической диффузии и называет (3.2) первым прохождением через единицу 2). Мы ищем вероятность срп этого события. Точнее, х) Из этого объяснения должно быть ясно, что настоящий параграф приво- дится в целях иллюстрации, хотя представляет и самостоятельный интерес; в дальнейшем он не используется. ?) Или первым достижением единицы; см, примечание 1 нас, 108.—Прим,, перев t
§3. Возвращение в начало и времена ожиданий 285 мы ищем производящую функцию ф(з) = 2 ф„5в, (з.з) п = 0 где для удобства принято фо = Ох). По определению ^ = р- Если (3.2) выполняется для некоторого п>1, то S1==—1 и найдется наименьший индекс v < п, такой, что Sv = 0. Исходы первых п партий в игровой терминологии описываются следующим образом. (1) В первой партии Петр проигрывает условную единицу. (2) Петру потребуется сыграть еще v—1 партий, чтобы восстановить исход- ную ситуацию. (3) Петру потребуется сыграть еще ровно п—v партий, чтобы добиться положительного чистого выигрыша. Эти три события зависят от непересекающейся группы партий и по- этому являются взаимно независимыми. Из определения ясно, что события (2) и (3) имеют вероятности (pv_j и cprt_v соответственно и что вероятность одновременного осуществления всех трех собы- тий равна произведению <7<Pv-i<P/i-v Итак, событие (3.2) осущест- вляется тогда и только тогда, когда происходят события (1)—(3) при некотором v < п. Суммируя по всем возможным v, получаем <р»=q (Ф1Фл-2+ф2ф»-8 + • • • + ф„.2Ф1). (3-4) Следует помнить, что это соотношение справедливо только при n> 1 и что (рх = р, а фо = О. Умножая (3.4) на sn и суммируя по п = 2, 3, ..., мы получаем в левой части <D(s) — ps. Величина, стоящая в скобках, представляет собой (п—1)-й член свертки {ф„}*{фд} и, следовательно, по теореме из § 2 правая часть равна gs(D2(s). Таким образом, мы видим, что производящая функция Ф удовлетворяет квадратному уравнению Ф (s)—ps=q$Q)2 (s). (3.5) Один из двух корней этого уравнения неограничен в окрестности s=0, и единственное ограниченное решение имеет вид ф (s) = (1 — J/Ч— 4Ws2)/(27s), (3.6) где К означает положительный корень. Формула разложения би- нома (8.7) гл. II позволяет записать коэффициенты в виде Ф2й-1 = ^=^(1й2)(4р7)А. Ф2й = 0- (3-7) Таким образом, мы получили явные выражения для вероятностей Фь, но они имеют лишь второстепенное значение; более поучи- х) Как будет показано в дальнейшем, производящую функцию Ф можно полу- чить непосредственно из простых вероятностных рассуждений. Следующий ниже менее изящный вывод приводится только потому, что дает хороший пример того, как нужно обращаться с уравнениями в свертках, которые встречаются в различ- ных контекстах вне теории вероятностей (см., например, задачу 6)s
286 Гл. XI. Целочисленные случайные величины. Производящие функции тельно извлечь нужную информацию непосредственно из произ- водящей функции. Заметим сначала, что сумма 2 равна Ф(1) = (1-|р-9|)/(29), (3.8) и поэтому Ж 1, если р если р^ q. (3.9) Иначе говоря, если p<Zq, то вероятность того, что сумма Sn будет всегда отрицательной, равна (q—p)/q. Если p^q, то эта вероятность равна нулю, поэтому с вероятностью единица сумма Sn рано или поздно станет положительной. Сколько времени прой- дет до этого момента? Простые вычисления показывают, что Ф' (1)~ —(р—q)~l, если p>q, и Ф'(1)~оо, если р=7=1/2. Можно сделать вывод, что при р — \/2 число партий, предшествующих моменту, когда сумма Sn впервые будет положительной, имеет бесконечное математическое ожидание. Имеет смысл прокомментировать на игровом языке этот заслу- живающий внимания результат. Из него следует, что в игре с бросанием симметричной монеты Петр теоретически уверен, что рано или поздно добьется положительного чистого выигрыша, но математическое ожидание числа испытаний, необходимых для до- стижения этой цели, равно бесконечности. Следовательно, игрок с ограниченным капиталом никогда не может быть уверен в том, что он когда-либо добьется чистого положительного выигрыша. Мы вернемся к этому вопросу в гл. XIV в связи с задачей о разо- рении игрока, В вероятностных терминах вывод квадратного уравнения (3.5) для Ф можно описать компактнее. Обозначим через N первый индекс, при котором SN > 0. Тогда N будет случайной величиной в несколько обобщенном смысле,- а именно эта случайная величина не определена для события при всех п. (В терминологии гл. XIII нам следовало бы назвать N дефектной величиной.) Производящую функцию Ф можно теперь записать в виде Ф ($) = == Е (s14). Если Xf = —1, то N=l+N1 + N2j где Nf — число испытаний, необ- ходимых для увеличения частных сумм S% от —1 до 0, a N2—число после- дующих испытаний, необходимых для увеличения S/c от 0 до 1. Эти величины независимы и имеют то же распределение, что и N. Поэтому для условных математических ожиданий случайной величины sN получаем Е (sN | Xf = -l) = E ($I+N*+N* | Xf = -I) = s®a(s). E (sN | Xf = 1) = s, Ho E(sN) = pE(sN| Xf=l)-HE(sN| Xf = —1), (3.10) что при O(s) = E(sn) совпадает с квадратным уравнением (3,5). б. Возвращение в начало. Равенство сумм числа успехов и неудач имеет место при k-м испытании, если Sft=0. Заимствуя
г-- $ 3. Возвращение в начало и времена ожиданий 287 термин из теории диффузии, мы назовем это событие возвращением в состояние равновесия (т. е. в начало). Число испытаний будет случайным, и вероятность возвращения при 2п-м испытании равна =(2n ) Рпяп=(-1)" (4р?)’. (3.11) Из формулы разложения бинома (8.7) гл. II получаем производя- щую функцию U (s) - S M2ns2n = 1 //1-W. (3.12) и = 0 Отметим, что {ип} не является распределением вероятностей, так как возвращение в начало может происходить неоднократно. в. Первое возвращение в начало происходит при 2/1-м испыта- нии, если S2n = 0, но Sfc=#0 при k — l9 ..., 2/г—1. Обозначим вероятность этого события через f2n. (Очевидно, /272-1 = 0-) Рассмотрим отдельно два подсобытия с Хх = 1 и Хх = —1 и обо- значим их вероятности через f^n и /^ соответственно. Из сказан- ного в п. «а» ясно, что /~n = ^(p27Z_j, так как первые 2п—2 част- ных сумм Х2+ Х3 + ... не превышают нуля, но следующая сумма положительна. Поэтому, используя (3.6), получаем F- (S) = s /2-«s2n - <?S(D (s) = (1 -J/1-4Ws2)/2. (3.13) п—\ В силу симметричности производящую функцию последовательно- сти {/+} можно получить взаимной перестановкой р и q. Из этого следует, что F+ = F~, и поэтому окончательно1) F (s) = S /„s” = 1 — Ki —W2. (3.14) п = 1 Отсюда можно получить интересные выводы, не используя яв- ного вида коэффициентов fn. Очевидно, что F(l) означает вероят- ность того, что рано или поздно происходит возвращение в начало. Итак, 77(1) = 1—1/7—q\, и поэтому |р—q\ есть вероятность того, что возвращение в начало не происходит никогда, т. е. для всех £>0. Только в симметричном случае р^=1/2 несомненно про- исходит возвращение в начало. В этом случае последовательность {fn} представляет распределение вероятностей для времени ожи- дания первого возвращения. Это время имеет бесконечное матема- тическое ожидание. В симметричном случае р = 1/2 имеем U {s)=(\—F (s))/(l— s2). (3.15) Так как U и F являются степенными рядами по $2, то это соотно- шение отличается от (1.6) только обозначениями, и по теореме *) Другой вывод можно найти в примере гл, XIII, 4, б),
288 Гл, XI. Целочисленные случайные величины. Производящие функции 1 §1 U2a =/2^ + 2 +/2^ + 4 + * • • > (3.16) т. е. при р=1/2 вероятность того, что S2n—О, совпадает с вероят- ностью того, что 2п сумм Si, . . S2n отличается от нуля. Этот результат был получен различными методами в гл. III, 3 и играл основную роль в анализе парадоксальной природы флуктуаций при игре с бросанием монеты. г. Первые достижения и последующие возвращения. Мы гово- рим, что первое достижение точки г > 0 происходит при н-ж испытании, если Sn — r, но < г для всех k<Zn. Вероятность этого события обозначим через ф<р. Испытания, следующие за пер- вым достижением точки v > 0, с вероятностной точки зрения являются копией всей последовательности, и поэтому число испы- таний, следующих за первым достижением точки v до первого достижения точки v 4-1 включительно, имеет такое же распределение {фи}, как число испытаний до первого достижения точки 1. Если р < д, то сумма не равна единице, но все же имеет смысл говорить о том, что время ожидания первого достижения является случайной величиной с (возможно дефектным) распределением {фЛ}. Времена ожиданий между последовательными первыми достижениями взаимно независимы, и поэтому полное время ожидания для пер- вого достижения точки г является суммой г независимых случайных величин с общим распределением {фп}. Следовательно, производя- щая функция последовательности вероятностей первого достиже- ния ф{р равна r-й степени Ф. (Начинающим следует проверить ©то утверждение непосредственно, получив уравнение свертки для Ф^, аналогичное (2.4), а затем воспользовавшись индукцией.) Аналогичные рассуждения справедливы для вероятности ftf* того, что r-е возвращение в начало происходит при п-м испыта- нии. Производящая функция последовательности равна г-й степени F. Сравнивая (3.6) и (3.14), сразу же замечаем, что № = (2q)'<ttLr. (3.17) В частном случае р = q = 1/2 этот результат содержится в тео- реме 4 гл. Ш,7. При помощи производящих функций легко получить различные приближе- ния и предельные теоремы, но при этом используются преобразования Лапласа^ которые будут рассматриваться только в гл. XIII тома 2. Систематического способа получения явных выражений для fn} из производящей функции Fr не существует, но правильное предположение легко проверить,"исходя из вида производящей функции. Исходя из теоремы 4 гл. III, 7, можно предполо- жить, что (зл8) ” / y *** / Для проверки этого предположения достаточно заметить, что из тождества Fr (s) = 2Fr-i (s) — ^pqs2Fr~2 (s)
4, Разложение на простые дроби 289 следует рекуррентное соотношение /2п)=2/2п1>—(3.19) которому также удовлетворяет правая часть (3.18). Таким образом, по индук- ции убеждаемся в справедливости (3.18). По поводу эквивалентных выраже- ний, имеющих, однако, другой вид, см. задачу 13 гл. XIV, 9, § 4. РАЗЛОЖЕНИЕ НА ПРОСТЫЕ ДРОБИ Если известна производящая функция Р (s) = 2 Pksk> то коэф* фициенты pk можно найти дифференцированием по очевидной фор- муле = (0)/^!. На практике не всегда возможно получить явные выражения для рк\ кроме того, эти выражения порой так сложны, что разумное приближение оказывается предпочтительнее. Наиболее распространенный метод получения таких приближений основан на разложении на простые дроби. Из теории функции комплексного переменного известно, что такие разложения воз- можны для широкого класса функций, но мы ограничимся рассмот- рением простого случая рациональных функций. Предположим, что производящая функция имеет вид P(s) = t/(s)/V(s), (4.1) где U и V — многочлены, не имеющие общих корней. Допустим для простоты, что степень U меньше степени V, причем степень V равна т. Кроме того, предположим, что уравнение V(s)=0 имеет т различных (действительных или мнимых) корней $i, . . sm. Тогда V(s)=(s—Sj)(s—s2). . .(s—sm), (4.2) и из алгебры известно, что P(s) можно разложить на простые дроби JP(s)=p1/(Si—s)+p2/(s2—s)+. . .+Pm/(sm—8), (4.3) где pi, p2, . . ., pm — постоянные. Чтобы найти pt, умножим (4.3) на Si—s; при s->Sj произведение (si—s)P (s) стремится к pi. С дру- гой стороны, из (4.1) и (4.2) получаем (Si—s)P(s)=—t/(s)/[(s—s2)(s—s8). . .(s—Sm)L (4.4) При s—>Sf числитель в (4.4) стремится к —U (sj), а знамена- тель — к произведению (Sx—s2)(si—s8). . .(si—sm), равному V'(si). Таким образом, pi=—U(Si)/V'(Si). Это рассуждение применимо ко всем корням, поэтому при k^Ztn рк = —U (sk)/V! (sk). (4.5) Для заданного рк мы можем легко получить точное выражение для коэффициента при s" в Р($). Напишем (4.6) «й—S Sft l—s/sk ' <0 № 224
29» Гл. XI. Целочисленные случайные величины. Производящие функции При | s | < | sk | последнюю дробь можно разложить в геомет- рический ряд т=«г=1+£+иУ+(1;)'+'-'- <4-7’ Подставляя эти выражения в (4.3), получим коэффициент рп при sn в виде рп = Pi/s?+1 + p2/*r1 + .. • + РЛЛ (4.8) Таким образом, для получения рп нужно сначала найти корни знаменателя sb s2, . . sm, а затем по (4.5) определить коэффици- енты pi, . . рш. Формула (4.8) дает точное выражение для вероятности рп. Вычислить все т корней обычно бывает затруднительно, и поэто- му формула (4.8) представляет преимущественно теоретический интерес. К счастью, даже один член в (4.8) почти всегда обеспе- чивает удовлетворительное приближение. Действительно, пусть $1 — наименьший по абсолютной величине корень. Тогда первый знаменатель в (4.8) является наименьшим. Ясно, что при возрас- тании п относительная доля остальных членов убывает и преобла- дает первое слагаемое. Иначе говоря, если s± — наименьший по абсолютной величине корень уравнения 7(s)=0, то при п-+оо P„~Pi/s?+1 (4.9) (знак ~ означает, что отношение правой и левой частей стремится к единице). Обычно эта формула дает хорошее приближение даже при сравнительно малых значениях п. Главное преимущество формулы (4.9) состоит в том, что в ней требуется вычислить только один корень алгебраического уравнения. Легко освободиться от тех ограничений, при которых мы вы- вели асимптотическую формулу (4.9). Во-первых степень числителя в (4.1) может превосходить степень т знаменателя. Пусть U (s) имеет степень т-\-г (л>0); с помощью деления P(s) приводится к сумме многочлена степени т и дроби (7i(s)/y(s), в которой сте- пень многочлена t/i(s) меньше т. Этот многочлен влияет только на первые г+1 членов распределения {рп}, a (7i{s}/V(s) можно, как и выше, разложить на простые дроби. Итак, формула (4.9) остается верной. Во-вторых, ограничение, что V (s) имеет только простые корни, также не является необходимым. Из алгебры из- вестно, что любая рациональная функция допускает разложение на простые дроби. Если sk — двойной корень V (s), то разложение на простые дроби (4.3) будет содержать дополнительный член вида a/(s—sh)2, и это внесет член вида a(n+l)Sfe_<Z!+2) в точное выра- жение (4.8) для рп. Но если Si — простой корень, то это не повлия- ет на асимптотическое разложение (4.9). Для удобства дальней- ших ссылок сформулируем этот результат в виде теоремы.
§ 4. Разложение на простые дроби 291 Теорема. Если наименьший по абсолютной величине корень внаменателя рациональной функции Р (s) является простым кор- нем, то коэффициент рп при sn асимптотически равен еде определяется по формуле (4.5). Аналогичное асимптотическое представление существует также и в случае, когда является кратным корнем (см. задачу 25). Примеры1), а) Пусть ап — вероятность того, что число успехов в п испытаниях Бернулли четно. Это событие может произойти в двух случаях з если за неудачей в первом испытании следует четное число успехов или же за успехом в первом испытании следует нечетное число успехов в остальных испытаниях. Поэтому для 1 an = qan..i+pO— an-t), а0 = 1- (4-Ю) Умножая на s" и суммируя полученные соотношения по п — 1, 2, ..., получаем следующее уравнение для производящей функции: A (s)—1=7$Л (s)+ps (1—s)~x—psA (s), или 2A (s)=[l— s]-i+[l—(q—p)s]-K Разлагая правую часть последнего соотношения в геометрическую прогрессию, мы, наконец, получаем ап в явном виде 2an=\+(q-pY, (4.11) который с любой точки зрения предпочтительней очевидного ответа ап=6(0; п, р)+Ь(2‘, п, р)+. . . . б) Пусть qn — вероятность того, что при п бросаниях правиль- ной монеты не появится ни одна серия из трех последовательных выпадений герба. (Заметим, что {<?„} не является, распределением вероятностей; если рп — вероятность того, что первая серия из трех последовательных гербов окончится на n-м испытании, то {рп} есть распределение вероятностей, a qn представляет его «хвос- ты»: 7п=Рп+х+Рп+а+- • • •) Легко показать, что qn удовлетворяет рекуррентной формуле Чп = (1/2) + (1/4) qn-z + (1/8) qn^ п^З. (4.12) Действительно, событие, состоящее в том, что при п испытаниях ни разу не появится последовательность ГГГ, может произойти только в том случае, если испытания начинаются с Р, ГР, или ГГР. Вероятности того, что последующие испытания не приведут х) Хорошую иллюстрацию применения простых дробей для численных при- ближений дает теория серий успехов (гл. XIII, 7). Явные выражения для вероят- ности разорения в гл. XIV, 5 и вероятностей перехода в гл< XVI* I также получены методом разложения на простые дроби, ЛО*
292 Гл. XI. Целочисленные случайные величины. Производящие функции к серии ГГГ, равны соответственно qn_i, qn_l и qn_^ и поэтому правая часть (4.12) содержит вероятности трех взаимно исклю- чающих друг друга возможностей, при которых может произойти событие «ни одной серии Г Г Г». Очевидно, <7о=<7i=<72—1, и, следовательно, остальные qn можно последовательно вычислять по формуле (4.12). Чтобы получить производящую функцию Q(s)=2^s72, умножим обе части равенст- ва (4.12) на sn и просуммируем по п^З. Получим Q(s)_l_s_s3==(l/2)s{Q(s)_l_s} + (l/4) s2 {Q (s)-l} + + (1/8) s3Q(s), или 2sa + 4s + 8 8—4s—2s2 — s3 * (4-13) Знаменатель имеет действительный корень sx=1,0873778 .. . и два комплексных корня. При |s|<Si имеем |4s+2s2+s3|<4$i+ +2$i+$t—8, и это же неравенство выполняется при ls| =Si, за исключением случая s=s±. Следовательно, другие два корня пре- восходят si по абсолютной величине. Таким образом, из (4.9) по- лучим qn ~ 1,236840/(1,0873778)"+1, (4.14) где числитель равен (2s^ + 4si + 8)/(4 + 4s1 + 3s?). Эта формула дает удивительно хорошее приближение даже при небольших значе- ниях п. Вместо точного значения q^ = 0,875 она дает 0,8847, а вместо 74 = 0,8125 дает 0,81360. Относительная ошибка монотонно убывает, и для qi2 = 0,41626 ... точное и приближенное значения совпадают до пятого знака. ► § 5. ДВОЙНЫЕ ПРОИЗВОДЯЩИЕ ФУНКЦИИ Для пары целочисленных случайных величин X, Y с совмест- ным распределением вида Р{Х-/, \=k}^pjh9 j, 1, . . . (5.1) мы определим производящую функцию от двух переменных фор- мулой P(slt sa) = 2M4 (5.2) i, k Такую производящую функцию для краткости будем называть двойной. Методы доказательств, которыми мы пользовались в первых двух параграфах, можно применить здесь без существенных изме- нений, поэтому достаточно отметить три свойства, вытекающие из (5.2).
§ 6. Теорема непрерывности 293 а) Производящие функции маргинальных распределений Р{Х=/} и P{Y=&} равны A (s)—p(s, 1) и B(s)=P(\, s). б) Производящая функция суммы X+Y равна P(s, s). в) Случайные величины X и У независимы тогда и только тогда, когда Р (sb s2)=4 (sj В (s2) для всех s1} s2. Примеры, а) Двумерное распределение Пуассона. Очевидно, что функция Р ($1, $2) == + + Л,-> О, Ь > 0 (5-3) разлагается в степенной ряд с положительными коэффициентами, дающими в сумме единицу. Поэтому Р ($х, s2) представляет собой производящую функцию распределения некоторой пары случайных величин, каждая из которых имеет распределение Пуассона со средним значением, равным соответственно и я2 + &. Но суммахY имеет производящую функцию e'ai~fl2~&+(ai+a2)s+z?s2 и поэтому является случайной величиной, имеющей распределение, отличающееся от распределения Пуассона. (Это так называемое обобщенное распределение Пуассона; см. гл. XII, 2.) в) Полиномиальное распределение. Рассмотрим последователь- ность п независимых испытаний, каждое из которых приводит к одному из исходов Et или Е2, вероятности которых соответст- венно равны ро, pi и р2. Если X/ — случайная величина, равная числу испытаний, в которых произошло событие Et, то (Xi, Х2) имеет триномиальное распределение с производящей функцией (po+piSi+p2S2)'2. ► § 6*). ТЕОРЕМА НЕПРЕРЫВНОСТИ В гл. VI было показано, что распределение Пуассона есть предельная форма биномиального распределения для случая, когда вероятность успеха р зависит от п, причем пр—при п —> оо. В этом случае b (k\ п, р) -+e~KM/k\. Производящая функция распределения {b(k; п, р)} равна (q+ps)n= =={1—2i(l—s)//!}". Логарифмируя, убеждаемся, что эта производящая функция стремится к функции e-X(1”s), являющейся производящей функцией распределения Пуассона. Покажем, что это свойство производящей функции сохраняется и в общем случае: последова- тельность распределений вероятностей сходится к предельному распределению тогда и только тогда, когда соответствующие произ- водящие функции сходятся. К сожалению, эта теорема имеет огра- ниченное применение, так как наиболее интересными предельными *) Теорема непрерывности будет использоваться только при обсуждении общего вида безгранично делимых распределений в гл. XII, 2 и получении общего числа потомков в ветвящихся процессах в гл. ХП, 5,
294 Гл. XI. Целочисленные случайные величины. Производящие функции формами дискретных распределений являются непрерывные рас- пределения (например, нормальное распределение как предельная форма биномиального распределения). Теорема непрерывности. Предположим, что при любом фикси- рованном п последовательность aQ%n, aitn, а2*п, ... является рас- пределением вероятностей, т. е. ak,n>0, = (6.1) k=Q Для того чтобы при любом фиксированном k^Q существовал предел ak= lim akt„, (6.2) П—> 00 необходимо и достаточно, чтобы при любом s из открытого ин- тервала 0 < s < 1 существовал предел A (s) = lim S ak, nsb- (6-3) n -> 00 £ = 0 В этом случае автоматически получается Л (s) = S aksb- (6-4) fe=0 Очевидно, что ак 0 и 2 ак 1 • Отметим тем не менее, что сумма может быть строго меньше 1. Например, если ак> n = fk+n, то ак — 0 для всех k. Доказательство1). Пусть Л„($)— ряд, стоящий в правой части (6.3). (i) Предположим, что (6.2) выполнено, и определим A (s) по- средством (6.4). Так как |aftin—ак|1, то для 0<s< 1 |4(s)-^(S)|c2|«A,„-flftH-s7(l-s). (6.5) k =0 Если выбрать г настолько большим, что sr<s(l—s), то правая часть будет меньше 2s для всех достаточно больших п. Таким образом, левую часть можно сделать сколь угодно малой, и, следовательно, (6.3) справедливо. (ii) Предположим, что выполнено (6.3). Очевидно что Л($) является монотонной функцией $, и поэтому А (0) определяется х) Эта теорема представляет собой частный случай теоремы непрерывности для преобразований Лапласа — Стилтьеса и доказывается так же, как и эта более общая теорема непрерывности. В литературе теорема непрерывности для производящих функций часто формулируется и доказывается при излишних огра- ничениях,
§ 6. Теорема непрерывности 295 как предел A (s) при s->0. Теперь ao.»<^n(s)<ao,„4-s/(l—s). (6.6) Из этого следует, что при п—>оо все предельные значения а0| п лежат между А(0) и А ($)—s/(l—s). Устремляя s к О, видим, что а0|П—>Л(0), и поэтому (6.2) выполняется при& = 0. Это рассуждение можно применить ко всем k. Действительно, для 0<§<1 (Л„ (s)—а0. „)/s —(Л (S)- Л (0))/з. (6.7) В левой части мы имеем степенной ряд с неотрицательными коэффи- циентами, и (6.7) во всех отношениях аналогично (6.3). При помощи рассуждений, подобных проведенным выше, убеждаемся в том, что производная Л'(0) существует и что й11П->Л'(0). По индукции получаем, что (6.2) справедливо для всех k. Примеры, а) Отрицательное биномиальное распределение. В при- мере 2, г), мы видели, что производящая функция распределения {f (k\ г, р)} имеет вид pr (1—qs)~r. Пусть теперь X фиксировано, и пусть р—И, q—s-О и г—оо, причем q~'K!r. Тогда [р/(1 —<7s)]r = [(1 —Х/г)/(1 —Xs/r)]'. (6.8) Логарифмируя, убеждаемся, что правая часть этого равенства стре- мится к функции е~к+к\ являющейся производящей функцией рас- пределения Пуассона Поэтому, если г —> оо и rq —> %, то f(k\ г, p)-+e-K№/kl. (6.9) б) Испытания Бернулли с переменными вероятностями х). Рас- смотрим п независимых испытаний, таких, что fe-e испытание окан- чивается успехом с вероятностью pk и неудачей с вероятностью —Pk- Число успехов Sn можно записать в виде суммы = Xf+. . .+ХП п взаимно независимых случайных величин Xftt имеющих распределение P{Xfe=0}=<7ft, P{Xft=l)=pft. Производящая функция случайной величины Xft равна qkA-pkS» й, следовательно, производящая функция величины Sn равна Р(s)=(7i+pis)(72+p2s). . .(qn+pns). (6.10) В качестве приложения этой схемы допустим, что в каждом доме некоторого города в течение дня может возникнуть пожар с небольшой вероятностью pk. Сумма pi+. . .-\-рп> где п — число домов в городе, будет ожидаемым числом пожаров. В гл. VI мы видели, что если все ph равны между собой и случаи возникновения пожара в различных домах стохастически независимы, то число *) См. также примеры гл, IX, 1, д) и гл, IX, 5, б).
296 Гл. X/. Целочисленные случайные величины. Производящие функции пожаров является случайной величиной, имеющей распределе- ние, близкое к распределению Пуассона. Сейчас мы покажем, что это заключение остается в силе также и при более реальном пред- положении, что вероятности ph не равны между собой. Этот ре- зультат еще больше убеждает нас в том, что распределение Пуас- сона дает адекватное описание явлений, представляющих собой сочетание нескольких маловероятных событий («успехов»). При- мерами служат несчастные случаи и телефонные вызовы. Воспользуемся уже знакомой нам схемой, в которой число величин п возрастает, причем вероятности рк меняются вместе с п таким образом, что наибольшая из вероятностей ph стремится к нулю, а сумма pi+/72+. • •+рп==^ остается постоянной. Тогда, согласно (6.10), 10gP(s) = 2 logp— pk0— $)}. (6.11) k=i Так как можно воспользоваться тем, что log(1—х)=—х—0х, где 0->О при х->0. Отсюда следует, что ( п \ logP(s) = -(l-s). 2 (pk + ekpk) —(6.12) U=i J гак что P(s) стремится к производящей функции распределения Пуассона. Следовательно, Sn имеет в пределе распределение Пуас- сона. Мы заключаем, что при большом п и не очень большом X=s =Pi+. . .+рп распределение величины Sn может быть приближен- но представлено распределением Пуассона. ► § 7. ЗАДАЧИ 1. Пусть X — случайная величина с производящей функцией Р (s). Найти производящие функции случайных величин X1 и 2Х 2. Найти производящие функции следующих последовательностейз а) Р{Х<и}; б) Р{Х < п}‘ в) Р{Х^п}; г) Р{Х > п+1}; д) Р{Х=2п}. 3. Рассмотрим последовательности испытаний Бернулли. Обозначим через ип вероятность того, что комбинация УН впервые появится при (и—1)-м и n-м испытаниях. Найти производящую функцию, среднее значение и дисперсию. 4. Выяснить, какие из формул гл. II, 12 включают свертки и где можно было использовать производящие функции. 5. Пусть ап — число способов, которыми можно получить сумму в ПОЧКОВ при произвольном числе бросаний правильной кости. Показать, что произво- дящая функция последовательности {#„} равна {1—s—s2—s3—s4—s5—s6}-1—1. 6. Пусть an — число способов, которыми n— 2 (непересекающихся) диаго- налей разбивают выпуклый (п + 1)-угольник PQPi ... Рп на треугольники1). Положим tZi—1. Показать, что при и^2 + ^2<3и-2_Н • • • Найти производящую функцию и явные выражения для ап. Э Эта задача обсуждается в книге Polya G. Mathematics and plausible reasoning, Princeton University Press, 1954, p. 102. [Имеется перевод: Пойа Д., Математика и правдоподобные рассуждения.— М.: ИЛ, 1957; М.: Наука, 1975л с. 123.]
§ 7. Задачи 297 Указание. Предположить, что одна из диагоналей проходит через Ро, и принять за k наименьший индекс, такой, что Р^Р^ является диагональю. Замечание. Задачи 7—11 относятся к § 3. Производящие функции Ф, U и F соответствуют первым достижениям точки 1, возвращениям в начало и первым возвращениям; см. формулы (3.6), (3.12) и (3.14). Вычисления здесь не требуются. 7. а) Вероятность того, что возвращение в начало происходит не позже момента n-го испытания, равна (1—s)“1/’(s). б) Следствие. Производящая функция последовательности вероятностей того, что Sy 0, /=1,..., ц, равна |/"(1 +$)/(!—s) = (l 4~s) U (s). в) Показать, что это эквивалентно утверждению, приведенному после формулы (3.16). 8. Производящая функция последовательности вероятностей того, что после n-го испытания (исключая само n-е испытание) не происходит возвра- щения в начало, равна (1—s)-1 U (s) | р— q |. 9. а) Производящая функция последовательности вероятностей P{Sn = r} (при фиксированном г > 0) равна Фг (s) U (s). б) При р = 1/2 это выражение является производящей функцией после- довательности вероятностей того, что S^ = r в точности для одного индекса k <; п. 10. а) Найти производящую функцию последовательности вероятностей того, что событие Srt = r произойдет ровно k раз (г > 0 и k > 0 фиксированы). б) Решить предыдущую задачу, заменив «ровно» на «самое большее». И. а) Найти производящую функцию последовательности вероятностей того, что первое возвращение в начало, следующее за первым достижением точки г > 0, происходит при испытании с номером г. б) Решить предыдущую задачу, опустив слово «первое». 12. Найти производящую функцию величины Sr (г фиксировано) в задаче о времени ожидания (пример гл. IX, 3, г)). Проверить формулу (3.3) гл. IX ^ля среднего значения и вычислить дисперсию. 13. Продолжение. Другой метод решения той же задачи. Пусть рп (г) == = P{Sr = n}. Доказать рекуррентную формулу = [(r- W] P„(r) + [(W-r+ 1W)] Р„(Г-1). (7.1) Непосредственно из (7.1) вывести производящую функцию. 14. Решить две предыдущие задачи для г заранее выбранных элементов (вместо г произвольных). 151). Назовем циклом последовательность испытаний Бернулли до первой неудачи включительно. Найти производящую функцию и распределение вероят- ностей общего числа Sr успехов в г циклах. 16. Продолжение, а) Пусть R— число последовательных циклов до v-ro успеха (т. е. v-й успех принадлежит R-му циклу). Найти Е (R) и Var(R), Доказать, что % / r4-v—2 Р{R =/•}== pv?r-i v_j *•) Задачи 15 и 16 имеют самое непосредственное отношение к игре в бил- лиард. Вероятность попадания р служит мерой искусства игрока. Игрок про- должает игру до первого промаха. Поэтому число забитых им шаров есть длина «цикла попаданий». Игра заканчивается, когда один из игроков забьет V шаров. Таким образом, в задаче 15 ищется распределение вероят- ностей для числа циклов, в течение которых игрок забивает k шаров, в задаче 16—средняя продолжительность игры и вероятность ничьей. Дальнейшие подробности см. в статье Bottema О., Van Veen S. С., Kansberekningen bij het biljartspel, Nieuw Archief voor Wiskunde (на датском языке), 22 (1943), 16—33^ 123—158.
298 Гл. XI. Целочисленные случайные величины. Производящие функции б) Рассмотрим две последовательности испытаний Бернулли с вероятно- стями pi, qt и р2* соответственно. Найти вероятность совпадения номеров циклов, при которых произойдет W-й успех в каждой последовательности, 17. Пусть случайная величина X принимает значения 0, 1,- —I каж- дое с вероятностью 1/г. Показать, что если г является составным числом,- например r — ab, то X можно представить в виде суммы независимых цело- численных случайных величин. 18. Пусть Sn = Xi + •.. +Х„ — сумма взаимно независимых случайных величин, каждая из которых принимает значения 1,2, ,..?ас вероятностя- ми 1/а, Показать, что производящая функция величины Sn равна Р (s)={s (1—s°)/[a (1-«)]}", откуда для j^n е (s,=;)=0-. Д = а~п j — av — 1 п — 1 (Лишь конечное число членов этой суммы отлично от нуля.) Замечание. При а = 6 мы получим вероятность выпадения j-}-n очков при бросании п костей. Решение этой задачи восходит к Муавру. 19. Продолжение. Вероятность Р {S„ j} имеет производящую функцию Р (s)/(l—s), и поэтому р{S„<7} = (l/a”) 2(-l)v( " ) V 4 ' 20. Продолжение: предельная форма. Если а—► со и J—>оо, причем j/a—>х, то р {S„ < /} — (1/n!) s (- l)v ( " ) v v где сумма берется по всем v из интервала < х. Замечание. Этот результат принадлежит Лагранжу. В теории геометри- ческих вероятностей правая часть представляет функцию распределения сум- мы п независимых случайных величин с «равномерным» распределением на интервале (0, 1). 21. Пусть ип—вероятность того, что число успехов в п испытаниях Бер- нулли делится на 3. Найти рекуррентное соотношение для ип, а из него — производящую функцию. 22. Продолжение: другой метод. Пусть vn и wn—вероятности того, что Sn имеет соответственно вид 3^+1 и 3^+2 (так что ««+^ + ^==1). Найти три одновременно выполняющиеся рекуррентные соотношения, а из них — три уравнения для производящих функций. 23. Пусть X и Y — независимые случайные величины с производящими функциями И (s) и V (s). Показать, что Р{Х—Y=/} равно коэффициенту при sJ в разложении функции U (s) V (1/s), где / = 0, ±1, ±2, .... 24. Производящие функции моментов. Пусть X — случайная величина с про- изводящей функцией P(s), и пусть ряд 2 pnsn сходится при некотором s0 > 1. Тогда все моменты mr = E(Xr) существуют и производящая функция F (s) последовательности тг[г\ сходится по меньшей мере при [ s 1 < log s0. Кроме
§7. Задачи 299 того, F(s)=2 sr=Р (es). r=0 Замечание. F (s) обычно называют производящей функцией моментов t хотя на самом деле она производит последовательность тг/г\. 25. Предположим^ что Л (s) == ^ —рациональная функция U (s)/V (s) и что $1 — наименьший по абсолютной величине корень многочлена У ($). Пока- вать, что если st имеет кратность г, то „ - Pi (п + г— Ц " s?+r \ г-1 /’ где Pi = (-I)’’ г! U (S1). 26. Двойное отрицательное биномиальное распределение. Показать, что при положительных значениях параметров выражение ро {1 — Pi$i—РгМ”** пред- ставляет собой производящую функцию распределения пары случайных вели- чин (X, Y)^ таких, что маргинальные распределения X, Y и X-J-Y являются отрицательными биномиальными распределениямиг), J) Распределение этого типа использовали Дж, Бейтс и Дж. Нейман при исследованиях частоты катастроф; см. University of California Publications in Statistics, 1 (1952).
ГЛАВА XII *1 СЛОЖНЫЕ РАСПРЕДЕЛЕНИЯ* 1). ВЕТВЯЩИЕСЯ ПРОЦЕССЫ Значительная часть теории вероятностей связана с суммами независимых случайных величин, и порою число слагаемых в та- ких суммах само является случайной величиной. Мы ограничимся здесь рассмотрением ситуации, когда слагаемые являются цело- численными случайными величинами, чтобы показать, как исполь- зуются производящие функции, и подготовиться к изучению (в томе 2) безгранично делимых распределений и процессов с неза- висимыми приращениями. В качестве примера особенно привлекательных применений мы опишем некоторые результаты изящной теории ветвящихся процессов. § 1. СУММЫ СЛУЧАЙНОГО ЧИСЛА ВЕЛИЧИН Пусть {XJ — последовательность взаимно независимых случай- ных величин с одним и тем же распределением Р = /} = /у и про- изводящей функцией f ($)=2Лб/- Мы будем рассматривать суммы Sn == Хх + Х2 -}* • • • + Хи , в которых число N слагаемых является случайной величиной, не зависящей от Ху. Пусть N имеет распределение P{N — n\ = gn и производящую функцию g(s) = Ъвпsn. Распределение {/iy} суммы Sn можно найти по основной формуле для условных вероятностей h/ = P{SHSj}=2P{N=n}P{XI+...+XI1 = /}. (1.1) п=0 Если число возможных значений N конечно, то случайная вели- чина Sn определена на пространстве элементарных событий, соот- ветствующем конечному числу Xk. В противном случае для вероят- ностного определения случайной величины SN как суммы необходимо *) Материал этой главы не будет использоваться в дальнейшем. 1) В оригинале compound distributions. Здесь имеются в виду распреде- ления, производящие функции которых являются сложными функциями (compound functions) вида h (s) — g (f (s)), где g и /—производящие функции (иначе говоря, h представляет собой суперпозицию g и Гр-—Прим. перев.
§ 1. Суммы случайного числа величин, 301 ввести пространство элементарных событий, соответствующее бес- конечной последовательности {Х^}. Однако нас будет интересовать только функция распределения Sn , и мы рассматриваем распре- деление (1.1) как определение случайной величины Sn на про- странстве элементарных событий с точками 0, 1, 2, ... . Для фиксированного п распределение Хх + • • • + Хп является м-кратной сверткой с самим собой, поэтому (1.1) можно записать в компактном виде 2^» {//}”*• 0-2) rt = 0 Эту формулу можно упростить, используя производящие функции. Производящей функцией {f;}n* является fn(s), и из (1.2) следует, что производящая функция суммы Sn вычисляется по формуле h (s) = 2 = 2 gjn (s). (1.3) /=0 n=0 Правая часть представляет собой ряд Тейлора для g(s), в кото- ром s заменено на f (s); значит, она равна g (f (s)). Тем самым доказано следующее утверждение. Теорема. Производящей функцией суммы Sn = Хл + ... + X яв- ляется сложная функция g(f (s)). Доказательство можно повторить в терминах условных математических ожиданий. По определению Е (ssn j N =п) = /л (s), (1.4) и, чтобы получить h (s) == Е (ssn) , нам нужно умножить (1.4) на P{N = n} и просуммировать по п (см. формулу (2.9) гл. IX). Представляют интерес два частных случая. а) Если Xz—бернуллиевские случайные величины с Р {Xz=I}=p и Р{Хх- = 0} = 7, то f (s) = 74- и поэтому h (s) = g (q + P$) • б) Если N имеет распределение Пуассона co средним t, то h (s) — e^t+tf(s\ Распределение с такой производящей функцией будем называть обобщенным распределением Пуассона1). В частно- сти, если Xz—бернуллиевские величины и N имеет распределение Пуассона, то h (s) =e^+tPs', иначе говоря, сумма SN имеет рас- пределение Пуассона со средним tp. Примеры, а) В примере гл. VI, 7, в) мы отмечали, что облучение рентгеновскими лучами вызывает перестройку хромосом в клет- ках; при фиксированных дозе и времени облучения число N из- менений имеет распределение Пуассона. Каждое изменение е г) Мы используем принятый в нашей литературе термин; в оригинале сот* pound Poisson distribution*— Прилп перевъ
302 Гл, XII. Сложные распределения. Ветвящиеся процессы вероятностью q залечивается, а с вероятностью р—1—q приводит к гибели клетки. Здесь SN—число наблюдаемых изменений1) — имеет распределение Пуассона со средним tp. б) Пусть в экспериментах с отловом животных ?) gn означает вероятность того, что численность животных данного вида равна п. Если для каждого животного вероятность быть пойманным равна /?, то (в предположении стохастической независимости) число по- павших в выборку представителей данного вида есть случайная величина SN с производящей функцией g(q+ps). Эту схему можно изменять многими способами. Например, пусть gn — вероятность того, что насекомое откладывает п яиц, ар — вероятность появ- ления из яйца личинки. Тогда SN есть число появившихся личинок. Или пусть gn — вероятность наличия в семье п детей, а отношение чисел мальчиков и девочек в популяции равно р : q. Тогда SN — число мальчиков в семье. в) Каждое растение дает много семян, но каждое семя имеет малую вероятность прорастания, и поэтому разумно предполагать, что число потомков отдельного растения имеет распределение Пуас- сона. Если — распределение числа растений, то g-(e"k+Xs) — про- изводящая функция числа проросших семян. г) Суммарное время обслуживания. Рассмотрим телефонную линию, прилавок или любое другое обслуживающее устройство, для которого длительности обслуживания последовательно появ- ляющихся клиентов могут рассматриваться как независимые оди- наково распределенные случайные величины Xi, Х2, ... . Число клиентов (или заявок), поступающих за день, само является слу- чайной величиной N, и суммарное время их обслуживания равно поэтому случайной сумме Xf-Ь. . . + XN. § 2. ОБОБЩЕННОЕ РАСПРЕДЕЛЕНИЕ ПУАССОНА Среди случайных сумм SN=Xi+. . .+XN наиболее важны для приложений те, в которых N имеет распределение Пуассона. По причинам, которые станут ясны позднее, мы обозначим мате- матическое ожидание N через Kt. Если X, имеют одно и то же рас- пределение {/j}, то Sn имеет обобщенное распределение Пуассона (2.1) м=0 с производящей функцией ht (s)==e-M+Mf(s>. (2.2) г) См. Catcheside D. G., Genetic effects of radiations, Advances in Genetics, edited by M. Demerec, v. 2, Acad. Press, New York, 1948, 271—358, особенно c. 339« 2) Kendall D. G., On some modes of population growth leading to R, A. Fi- sher’s logarithmic series distribution, Biometrika, 35 (1948), 6—15,
2. Обобщенное распределение Пуассона 303 Примеры, а) Суммарный ущерб. Предположим, что число уда- ров молнии в любом интервале времени длительности t является пуассоновской случайной величиной с математическим ожидани- ем X/. Если {fn} — распределение вероятностей ущерба, причи- ненного одним ударом молнии, то (при условии стохастической не- зависимости) суммарный ущерб за время t имеет обобщенное рас- пределение Пуассона (2.1). б) Ливни в космических лучах. Принято считать, что число N ливней в космических лучах в интервале времени длительности t имеет распределение Пуассона с математическим ожиданием X/. Для любого счетчика число зарегистрированных частиц одного ливня является случайной величиной с распределением {Д}. Об- щее число частиц, зарегистрированных за время t, снова есть слу- чайная сумма SN с обобщенным распределением Пуассона (2.1). в) В экологии предполагается, что число выводков животных на данном участке имеет распределение Пуассона с математиче- ским ожиданием, пропорциональным площади t участка. Пусть {fk} — распределение числа животных в выводке; предположим, что размеры выводков независимы. При этих условиях число жи- вотных на данном участке подчиняется обобщенному распределе- нию Пуассона (2.1). Эта модель широко используется на прак- тике. ► Заметим, что все три примера тесно связаны с явлением, об- суждавшимся в гл. VI, 6 в связи с распределением Пуассона. В первых двух примерах каждому интервалу времени соответст- вует случайная величина Sn. (Это верно и для примера в), если мы согласимся рассматривать площадь как своеобразное время.) В такой модели предполагается, что если интервал разбит на два непересекающихся интервала, то их вклады стохастически неза- висимы и в сумме дают SN. Применительно к производящей функ- ции (2.2) это означает, что (s)= hf (s) (s)* (2«3) Производящая функция (2.2) любого обобщенного распреде- ления Пуассона удовлетворяет (2.3). Покажем теперь, что верно и обратное: семейство производящих функций ht, удовлетворяющее условию (2.3), обязательно имеет вид (2.2). (Следует иметь в виду, что это утверждение верно только для целочисленных случайных величин. Понятие обобщенного распределения Пуассона остается осмысленным даже тогда, когда Х7- имеют произвольное распреде- ление, а аналог соотношения (2.3) играет важную роль в общей теории случайных процессов с независимыми приращениями. Одна- ко распределения таких процессов могут и не быть обобщенными распределениями Пуассона.) Следующие определение и теорема в действительности отно- сятся к распределениям вероятностей на множестве целых чисел
304 Гл. XII. Сложные распределения. Ветвящиеся процессы 0, 1, . . ., однако для простоты они формулируются в терминах соответствующих производящих функций. Определение. Вероятностная производящая функция h назы- вается безгранично делимой, если для любого натурального числа п корень п-й степени ny/h тоже является вероятностной произво- дящей функцией. Следующая теорема показывает, что это утверждение остается справедливым даже когда п > 0 не является целым числом. Если семейство вероятностных производящих функций удовлетворяет (2.3), то П|/ht = ht/n, и поэтому hf безгранично делима. Обратной этому утверждению является следующая теорема. Теорема1). Все безгранично делимые производящие функции имеют вид (2.2), причем {/J — распределение вероятностей на 0, 1, ... . Доказательство. Положим h(s) = ^hksk и допустим, что у/h является вероятностной производящей функцией при каждом п^ 1. Тогда h0 > 0, поскольку в противном случае свободный член в сте- пенном ряду для '{/h был бы равен нулю, а это, в свою очередь, означало бы, что hp — h^ — .. =hn^1==0. Следовательно, (s) —> 1 для любого 0 s 1, и поэтому log /МЖ=1оё[1 1)] - //ГЖГ-1, (2.4) где знак ~ означает, что отношение правой части к левой стремит- ся к 1. Из (2.4) и его частного случая при $=1 мы получаем (учи- тывая, что Л(1) = 1): log/ф)—logft0 _ log h (s)/h0 h ($)—{/hQ /9 rx • 1 ’ Правая часть представляет собой степенной ряд с положительны- ми коэффициентами, и, полагая s=l, легко проверить, что сумма этих коэффициентов равна 1. Таким образом, при любом п правая часть — вероятностная производящая функция, и поэтому левая часть является пределом последовательности вероятностных про- изводящих функций. Согласно теореме непрерывности гл. Х1,6, это означает, что левая часть — производящая функция неотри- цательной последовательности {fj}. Полагая s=l, убеждаемся в том, что Значит, h имеет вид (2.2) с V=—log hp. Переформулировкой этой теоремы является следующий кри- терий. £) Это простой частный случай важной теоремы П. Леви,
§ 2. Обобщенное распределение Пуассона 305 Критерий. Функция h является безгранично делимой вероятност- ной производящей функцией тогда и только тогда, когда /г(1) = 1 и log[/i(s)//i(0)]= S aksk, где ak^Q, 2aft = X<oo. (2.6) k— 1 Действительно, если выполнено (2.6), то достаточно положить fh—ahIK, чтобы привести h к канонической форме (2.2) (с t= 1), а она, в свою очередь, является производящей функцией обобщен- ного распределения Пуассона, определенного в (2.1). Примеры, г) Сравнивая (2.2) с теоремой предыдущего парагра- фа, мы видим, что если распределение N безгранично делимо, то таким же является и распределение случайной суммы SN. д) Отрицательное биномиальное распределение с производящей функцией ftt(s) = [p/(l— 7«)]‘. р + <7=1. (2.7) обладает свойством (2.3) и поэтому безгранично делимо. Переходя к логарифмам, сразу убеждаемся в том, что оно действительно имеет вид (2.2), причем f„ = 9"/(M X = logp-\ (2.8) {fn} называется логарифмическим распределением и широко исполь- зуется статистиками. е) Из разложений (8.9) и (8.10) гл. II легко получить, что при 9=1—р>р функции / («) - /. г И - <2 !» удовлетворяют условию (2.6), и поэтому как f, так и g являются безгранично делимыми вероятностыми производящими функциями. Интересно заметить, что f(s)=gf(s)(<7+ps). (2.10) Мы получили здесь разложение безгранично делимой функции в произведение двух производящих функций, из которых только одна безгранично делима. Существование таких разложений пона- чалу воспринималось как большая неожиданность, и эта тема некоторое время оживленно обсуждалась. ► Замечательное свойство обобщенного распределения Пуассо- на является поводом для некоторых любопытных умозаключений. Если мы введем для простоты обозначение то производя- щую функцию ht из (2.2) можно представить в виде произведения (s»-i) ... # (2.11)
306 Гл. XII. Сложные распределения. Ветвящиеся процессы Здесь произведение может быть бесконечным, но это не имеет отно- шения к нашим рассуждениям, и мы можем считать, что лишь конечное число положительно. Первый сомножитель — это про- изводящая функция обычного распределения Пуассона с мате- матическим ожиданием Второй сомножитель — это произво- дящая функция удвоенной пуассоновской случайной величины, т. е. знакомую нам вероятность е-7^ (K2t)n/n\ имеет точка 2/г, а не п. Аналогично, й-й сомножитель соответствует распределению Пуассона, которое приписывает вероятности числам, кратным k. Таким образом, (2.11) дает новое представление SN в виде суммы таких независимых случайных величин Yb Y2, . . ., что Yft при- нимает только значения 0, k, 2k, . . . и имеет на них распределение Пуассона. Смысл соотношения (2.11) можно описать следующим образом. Пусть N; — число величин Хь . . ., XN, равных /. Тогда N = Ni+N2+. . и (2.11) означает, что случайные величины N& взаимно независимы и имеют распределения Пуассона. Пример, ж) Автомобильные катастрофы. Будем рассматривать Хп как число автомобилей, попавших в n-ю катастрофу. При обыч- ных предположениях о независимости Хп и о том, что число N катастроф имеет распределение Пуассона, находим, что общее число автомобилей, попавших в катастрофы, составляет Хх+. . . . . .+XN и имеет обобщенное распределение Пуассона (2.1). Мы мо- жем теперь рассмотреть отдельно число Nfe катастроф, в каждую из которых попало ровно k автомобилей. Согласно (2.11), случайные величины Nfo взаимно независимы и имеют распределения Пуассо- на. Практические выводы из этого результата не нуждаются в комментариях. ► (Еще один вариант обобщенного распределения Пуассона будет приведен в примере гл. XVII, 9, а).) 2а. Процессы с независимыми приращениями Интерес к предыдущим результатам увеличивает их тесная связь с одним важным классом случайных процессов. Эти процессы будут сейчас нефор- мально описаны, хотя соответствующая теория лежит вне рамок этой книги. Чтобы начать с простейшего примера, рассмотрим число вызовов, посту- пающих на телефонную станцию, как функцию времени. Процесс работы станции описывается заданием для каждого t числа Z (0 вызовов, поступив- ших между 0 и t. Если последовательные вызовы поступали в моменты tlf • • • > т0 Z (0 = 0 при 0< t < ti, и вообще Z (t) — k при Обратно, любую неубывающую функцию, принимающую только значения 0, 1, 2, ., можно рассматривать как возможный вариант процесса работы телефонной станции. Поэтому вероятностная модель должна строиться на пространстве элементарных событий, точками которого являются функции Z (0 (а не последовательности, как в случае дискретных испытаний). Вероятности должны быть заданы способом, который позволял бы нам работать с такими сложными событиями, как событие, состоящее в том, что Z(/+l) — Z (0 когда-нибудь превзойдет 17 или что Z (0 в некоторый момент времени пре- взойдет at-^-b (последнее событие есть основной объект задачи о разорении
§2. Обобщенное распределение Пуассона 307 в теории коллективного риска). В дальнейшем мы считаем само собой разу- меющимся, что такое задание действительно возможно; наша цель — показать, что из простых и естественных предположений о природе процесса следует, что для каждого фиксированного t случайная величина Z (/) должна иметь обоб- щенное распределение Пуассона. Аналогичные рассуждения справедливы для широкого круга реальных явле- ний. Случайная величина Z(0 может соответствовать не числу телефонных вызо- вов, а суммарной длительности (или стоимости) уже проведенных разговоров, числу автомобилей, попавших в катастрофы, суммарному ущербу, причиненному молниями, общему потреблению электроэнергии, суммарному количеству осадков и т. п. Оставаясь в рамках настоящей главы, мы должны предполагать, что слу- чайные величины Z(/) принимают только цельте неотрицательные значения, но теорию можно обобщить на произвольные случайные величины. Наше внимание будет сосредоточено на процессах, удовлетворяющих двум следующим основным условиям, которые во многих приложениях представляются естественными. а) Процесс является однородным по времени, т. е. распределения прира- щений Z —Z (/) зависят лишь от длины интервала времени, но не от его положения г). б) Приращения Z(/2)—Z(/x) и Z(4)—Z(/o) на смежных интервалах времени взаимно независимы. Результаты предыдущего раздела можно теперь переформулировать следую- щим образом: если существует процесс, удовлетворяющий условиям а) и б), то его приращения Z (/-(-Л)—Z(Z) имеют обобщенные распределения Пуассона. В част- ности, если Z (/) имеет скачки только единичного размера, то эти случайные ве- личины имеют обычные распределения Пуассона (см. формулу (2.11)). Таким образом, мы охарактеризовали обычные и обобщенные распределения Пуассона присущими им свойствами; в отличие от рассуждений, проведенных в гл. VI, распределение Пуассона оказывается не приближением, а вполне самостоя- тельным распределением (можно сказать, проявлением некоторого естественного закона). Разумеется, теперь перед нами встает обратная задача: каждому ли се- мейству обобщенных распределений Пуассона соответствует некоторый случай- ный процесс? Ответ на этот вопрос утвердительный, однако (несколько неожидан- но) оказывается, что двух наших условий не достаточно для однозначного опреде- ления процесса. Для однозначного определения представляющих интерес про- цессов необходимо усилить условие б), потребовав, чтобы п приращений, соответ- ствующих конечному разбиению • -<Ип> были взаимно независимы при любом п. Это — определяющее свойство процессов с независимыми приращениями* Любое семейство обобщенных распределений Пуассона однозначно определяет процесс с независимыми приращениями, и поэтому никаких теоретических труд- ностей не возникает. Однако мы предполагали независимость только для двух ин- тервалов. Такое ограниченное условие достаточно для определения вида распре- делений приращений, но можно построить довольно патологические процессы, удовлетворяющие указанному условию * 2). На этом примере видны трудности, присущие построению точной модели случайного процесса. Это условие не столь ограничительно, как может показаться на первый взгляд. Например, вызовы на телефонную станцию в самый напряженный дневной час поступают чаще, чем от полуночи до часу ночи, поэтому процесс является не- однородным по времени. Однако по очевидным причинам связисты рассматривают в основном «час пик», а на этом отрезке времени процесс может считаться однород- ным. Практика показывает, что в течение часа пик поступление вызовов с удиви- тельной точностью соответствует распределению Пуассона. 2) В таком процессе приращение Z(/2)—Z(/x) не зависит ни от Z(/3)—Z(/2), ни от Z(/x)—Z(/o), неоднозначно определяется последними двумя приращениями. См. Feller W., Non-Markovian processes with the semi-group property, Ann, Math, Statist,, 30 (1959), 1252—1253,
308 Гл. XII. Сложные распределения. Ветвящиеся процессы § 3. ПРИМЕРЫ ВЕТВЯЩИХСЯ ПРОЦЕССОВ Мы опишем случайный процесс, который является упрощенной моделью ряда реальных процессов, а также показывает полезность производящих функций. Словесно этот процесс описывается сле- дующим образом. Мы рассматривааем частицы, которые могут порождать новые частицы того же вида. Одна начальная частица образует исход- ное, или нулевое, поколение. Каждая частица с вероятностью р& (k=0, 1, 2, ...) порождает ровно k новых частиц', непосредственные потомки частиц п-го поколения образуют (п+1)-£ поколение. Ча- стицы каждого поколения размножаются независимо одна от дру- гой. Нас интересуют размеры последовательных поколений. Прежде чем дать строгое описание в терминах случайных ве- личин, имеет смысл привести несколько примеров. а) Ндерные цепные реакции. Это применение стало общеизвест- ным в связи с атомной бомбой х). Частицами являются нейтроны, которые случайным образом сталкиваются с другими частицами. Пусть р — вероятность того, что частица рано или поздно испытает столкновение, породив при этом т частиц; тогда q=l—р — веро- ятность того, что у частицы не будет потомков, т. е. она останется инертной (удалится или поглотится каким-либо другим спосо- бом). В этой схеме единственно возможными значениями числа потомков являются 0 и т, а соответствующие вероятности равны р и q (т. е. p<r=q, рт—р, рр=^ для всех остальных /). В худшем случае первая частица останется инертной и процесс никогда не начнется. В лучшем случае в первом поколении будет т частиц, во втором т* и т. д. Если р близко к единице, то весьма вероятно, что число частиц будет быстро возрастать. В математической модели это число может расти неограниченно. На самом деле при очень большом числе частиц вероятности расщепления не могут оста- ваться постоянными и стохастической независимости тоже не мо- жет быть. Тем не менее для реальных цепных реакций математиче- ское описание «неограниченно увеличивающегося числа частиц» можно интерпретировать как «взрыв». б) Выживание фамилий. В этом случае (как часто в жизни) учитываются только потомки мужского пола; они играют роль частиц, и ph — это вероятность того, что новорожденный мальчик будет отцом ровно k мальчиков. Наша схема содержит два искусст- венных упрощения. Рождаемость меняется от века к веку, и поэ- тому в действительности распределение {ph} изменяется от поко- ления к поколению. Более того, общность наследственности и ок- х) Приведенное ниже описание следует работе Э. Шредингера (Schrodinger E.s Probability problems in nuclear chemistry, Proceedings of the Royal Irish Academy, 51, sect. A, No. 1 (December 1945)). В этой работе пространственная однородность не предполагается,
§3. Примеры ветвящихся процессов 309 ружающей среды обусловливают сходство братьев, что противоре- чит нашему предположению о стохастической независимости. Нашу модель можно уточнить, чтобы учесть эти замечания, но наиболее существенные ее черты изменить не удается. Мы найдем вероят- ность того, что в n-м поколении будет ровно k обладателей данной фамилии, в частности вероятность исчезновения фамилии. По-ви- димому, выживание фамилий — первая цепная реакция, изучав- шаяся вероятностными методами. Впервые эту задачу рассматривал Ф. Гальтон в 1889 г.; подробности можно найти в книге А. Лот- ка х). Лотка указывает, что американские статистические данные хорошо соответствуют распределению ро=О,4825, pfe=(0,2126)x X (0,5893)^~1 (£>1), которое (если отвлечься от первого члена), является геометрическим. в) Гены и мутации. Каждый ген данного организма (см. гл. V, 5) может быть передан 0, 1, 2, ... непосредственным потомкам, и наша схема описывает этот процесс, пренебрегая, конечно, неод- нородностями по популяции и по времени. Особенно полезна эта схема при изучении мутаций, т. е. изменений структуры гена. Случайная мутация приводит к образованию одного гена нового типа, который играет роль частицы нулевого поколения. Теория дает оценки для вероятностей сохранения и распространения мутант- ного гена. Чтобы пояснить основные идеи, рассмотрим (следуя Р. Э. Фишеру) растение кукурузы, которое является отцовским для 100 семян и материнским для стольких же семян. Если размер популяции не изменяется, то в среднем два из этих 200 семян ра- зовьются в новые растения. Каждое зерно получает данный ген с вероятностью 1/2. Вероятность того, что мутантный ген будет иметься ровно у k новых растений, соответствует поэтому вероят- ности ровно k успехов в 200 испытаниях Бернулли с вероятностью успеха р=1/200, и представляется разумным предположить, что {рь} близко к распределению Пуассона со средним 1. Если му- тантный ген обеспечивает какие-либо биологические преимущест- ва, то получается распределение Пуассона со средним Х>1. г) Очереди 2). Теория ветвящихся процессов находит интерес- ные применения в теории очередей. Например, покупатель, по- дошедший к свободному продавцу и сразу приступивший к выбору покупки, называется предком; его непосредственными потомками являются покупатели, пришедшие за время его обслуживания и образовавшие очередь. Этот процесс продолжается до тех пор, пока очередь не будет исчерпана. Мы подробнее рассмотрим этот процесс в примере 5, б), а его более интересный вариант — в при- мере 5, в). ► х) Lotka A., Theorie analytique des associations biologiques, v. 2, Actualites scientifiques et industrielles, No. 780 (1939), Paris, Hermann et Cie, 123—136* 2) Kendall D. G., Some problems in the theory of queues, Jg Roy. Statist. Soc< (Series В)г 13 (1951)2 151—173; обсуждение c, 173—185,
310 Гл. ХП. Сложные распределения. Ветвящиеся процессы § 4. ВЕРОЯТНОСТИ ВЫРОЖДЕНИЯ ВЕТВЯЩИХСЯ ПРОЦЕССОВ Обозначим через Z„ размер n-го поколения, а через Рп—про- изводящую функцию его распределения. По предположению Ze = 1 и PI(s) = P(s)=3pAsft- (41) ft=0 Можно разделить n-е поколение на Zj семейств по их предкам в первом поколении. Это означает, что Z„ есть сумма Zj случай- ных величин каждая из которых представляет собой размер потомства одной частицы первого поколения. По предположению каждая из величин Z^’ имеет то же распределение вероятностей, что Zn_t, и (при фиксированном п) случайные величины Z^’ вза- имно независимы. Поэтому производящая функция Рп является сложной функцией! Pn(s) = P(Pa_M- (4.2) Это равенство позволяет последовательно находить все произво- дящие функции. Согласно (4.2), мы имеем P2(s)=P(P(s)), Ps(s)==> =P(P2(s)) и т. д. Эти вычисления не представляют трудностей, хотя явные выражения для Рп, как правило, найти нелегко. Тем не менее мы вскоре увидим, что из (4.2) можно получить важные следствия. Пример. Предположим, что число непосредственных потомков имеет геометрическое распределение {qpk}, vpp. p=£q. Тогда P(s)=> =^/(1—ps), и, вычислив в явном виде Р2, Ps и т. д. (и приложив известные усилия), мы приходим к общей формуле р /<л _п . pn-qn—(pn-'i—qn-l)ps Зх гп\ь) Ч рп + 1—qn + 1—(рп — qnjpS9 V • / Легко проверить, что (4.3) действительно удовлетворяет (4.2). Если p=q, то, полагая р->1/2, получаем Pn(s)=[n—(п—l)s]/(n+l—ns). (4.4) Заметим, что Рп (O)-+q/p, если p>q, но Рп (0)->1, если p^q. Теперь мы обсудим этот результат и найдем его аналог для произвольных распределений {рк}- ► Самый первый вопрос, относящийся к нашему ветвящемуся процессу, состоит в том, будет процесс продолжаться бесконечно или же все потомство вымрет после конечного числа поколений. Положим х„ = Р {Zn = 0} = Р„ (0). (4.5) Это вероятность того, что процесс окончится на n-м поколении или еще раньше. По определению Xi=pB, и из (4.2) следует, что хп=Р(х„_1). (4.6)
§ 4. Вероятности вырождения ветвящихся процессов 311 Ввиду тривиальности крайних случаев ро=О и р0=1 мы далее бу- дем предполагать, что О<ро<1. Из монотонности Р выводим, что я2=Р(рй)>Р (0)=хх, и аналогично по индукции, что хх<х2<х3. . . . Значит, эта последовательность имеет предел , и из (4.6) выте-* кает, чго х=Р(х). (4.7) При O^s^l график P(s) — выпуклая вниз кривая, начинающая- ся в точке (0, ро) над биссектрисой первого квадранта и заканчиваю- щаяся в точке (1, 1) на этой биссектрисе. Таким образом, возможны только две ситуации. Случай (i). Весь график находится выше биссектрисы. В этом случае х=1—единственный корень уравнения (4.7), и поэтому кп-+1. Далее, в этом случае 1—Р (s)^l—s для всех s, и, устремляя 8 к 1, мы находим, что производная Р'(1) удовлетворяет неравенст- ву Р' (1)<1. Случай (ii). График Р пересекает биссектрису в некоторой точке о<1. Поскольку выпуклая кривая пересекает прямую линию не более чем в двух точках, в этом случае P(s)>s при s<a и P(s)<s при а<8<1. Тогда xt=P(0)<Р(а)=а, ипоиндукции хп=Р(х„_1)< <Р(сг)=а. Значит, хп-+о, и, таким образом, х—о. С другой сторо- ны, по теореме о среднем значении между <з и 1 существует точка, в которой производная Р' равна 1. Из монотонности этой произ- водной следует, что Р'(1)>1. Итак, эти два случая характеризуются условиями Р' (1)^1 и Р' (1)>1 соответственно. Но |x^^(l)=S^Coo (4.8) /г=0 есть математическое ожидание числа непосредственных nomoMKoet т. е. нами доказана интересная теорема. Теорема. Если р>^1, то процесс вырождается с вероят- ностью 1. Если же рс> 1, то вероятность хп того, что процесс вырождается в п-м поколении или раньше, стремится к единст- венному корню х <. 1 уравнения (4.7). Как правило, сходимость хп—является быстрой, и поэтому с большой вероятностью процесс либо довольно быстро вырож- дается, либо продолжается неограниченно. Математическое ожида- ние размера n-го поколения дается формулой Е (ZJ = Р'п (1). Из (4.2) по правилу дифференцирования сложной функции мы получаем, что Р'п (1) = Р' (1) Р'п^ (1) =р,Е (Z„_j), и, следовательно1), E(ZJ=h«. (4.9) х) Дальнейшие подробности можно найти в содержательной монографии Harris Т. Е., The theory of branching processes, Berlin, Springer, 1963. [Имеется перевод: Харрис T. Е. Теория ветвящихся случайных процессов.— М.: Мир, 1966.] (См. также книгу Севастьянов Б, А, Ветвящиеся процессы,—М.: Наука, 1971.— Переев
312 Гл. XII. Сложные распределения. Ветвящиеся процессы Нет ничего удивительного в том, что процесс неизбежно вырож- дается при р<1, однако заранее не было ясно, что устойчивой си- туации не может быть даже при ц=Р). Если р>1, то в соответствии с (4.9) следовало бы ожидать, что Zn растет со скоростью геометри- ческой прогрессии. До некоторой степени это верно; однако незави- симо от того, сколь велико р, вероятность вырождения может быть отделена от 0. Легко проверить, что Рп (s)->x при любом s<l, а это значит, что коэффициенты при s, s* 2, s3 и т. д. стремятся к 0. Поэтому с большой вероятностью после достаточно большого числа поколений либо потомков нет совсем, либо их очень много (вероятности этих событий стремятся соответственно к х и 1—х). § 5. ОБЩЕЕ ЧИСЛО ЧАСТИЦ В ВЕТВЯЩИХСЯ ПРОЦЕССАХ 2) Рассмотрим теперь случайную величину Y„= 1+Z,+...+Z„, (5.1) равную общему числу частиц в поколениях с номерами от 0 до п включительно. Полагая п->оо, мы получаем общее число частиц, которое может быть конечным или бесконечным. Очевидно, случай- ная величина Yn корректно определена для каждого п; мы обозна- чим через Rn производящую функцию ее распределения вероятно- стей. Поскольку Yi=l+Zi, мы имеем Ri(s)=sP (s). Рекуррентную формулу для Rn можно получить при помощи тех же рассуждений, что в предыдущем параграфе; единственное отличие состоит в том, что для получения Yn мы должны прибавить к начальной частице сумму потомков Zj частиц первого поколения. Следовательно, P„(s)=sP(Pn_I(s)i. (5.2) По формуле (5.2) в принципе можно последовательно вычислять 7?i, R2, ... , но этим заниматься не стоит. Асимптотическое пове- дение Rn можно изучать при помощи тех же геометрических рассуж- дений, которые использовались в предыдущем параграфе при на- хождении вероятности вырождения х. Заметим прежде всего, что при любом s<l Rz(s)=sP (R, (s))<sP ($)=/?! (s), (5.3) и по индукции находим, что Rn (s)<zRn__i (s). Таким образом, Rn(s), монотонно убывая, стремится к пределу p(s), который удовлетворя- ет уравнению p(s)=sP(p(s)), 0<s<l. (5.4) х) Если не обращать внимания на случай, когда число непосредственных по- томков равно 1 с вероятностью 1.— Прим, перев. 2) Этот параграф написан под впечатлением работы И. Дж. Гуда (Good I. J.t The number of individuals in a cascade process, Proc. Cambridge Philos. Soc,, 45 (1949), 360—363),
§5. Общее число частиц в ветвящихся процессах 313 Согласно теореме непрерывности гл. XI, 6, функция р как предел вероятностных производящих функций является производящей функцией такой последовательности pk неотрицательных чисел,, что Из (5.4) следует, что при фиксированном s<l значение p(s) является корнем уравнения t=sP(i). (5.5) Покажем, что этот корень является единственным. Для этого снова обозначим буквой х наименьший положительный х) корень урав- нения х=Р(х) (так что х^1). Заметим, что y=sP(t) (при фиксиро- ванном s) является выпуклой вниз функцией /, и поэтому ее график пересекает прямую y=t не более чем в двух точках. Но при /=0 правая часть (5.5) больше левой, тогда как при t=x и при /=1 верно обратное неравенство; значит, (5.5) имеет ровно один корень между О и х и не имеет корней между х и 1. Таким образом, р (s) как корень (5.5) определяется однозначно, и мы видим, далее, что p(s)<x Но очевидно, р(1) является корнем уравнения t=P(f), и, поскольку х — наименьший корень этого уравнения, ясно, что р(1)=х Иначе говоря, производящая функция р будет вероятностной тогда и только тогда, когда x=l. Мы можем подвести итоги этих рассужде- ний следующим образом. Пусть pk — вероятность того, что общее число частиц равно k. а) Pk равна вероятности вырождения х(а 1—х есть вероят- ность того, что общее число частиц равно оо). б) Производящая функция р (s)=^phsk является единственным решением уравнения (5.5), и p(s)^x. Мы уже знаем, что с вероятностью 1 общее число частиц конеч- но, если ц^1. Дифференцирование (5.4) теперь показывает, что его математическое ожидание равно 1/(1—р), когда р<1, и бесконеч- но, когда р=1. Примеры, а) В примере 4,а) мы нашли, что P(s)=ql(\—ps), и (5.5) сводится к квадратному уравнению рР—t+qs=O, из которого мы заключаем, что р (s) = (1 — к 1 — 4 ws)/(2p). (5.6) (Эта производящая функция появлялась в связи с моментами пер- вого достижения в гл. XI, 3.) б) Периоды занятости. Займемся более подробным анализом задачи об очередях, упоминавшейся в примере 3, г). Предположим для простоты, что покупатели могут прибывать только по одному и только в целочисленные моменты времени. Мы предполагаем, что прибытия регулируются испытаниями Бернулли: в момент п поку- х) При этом предполагается, что Р(0)>0, так как при Р (0)=0 случайная ве- личина стремится к оо с вероятностью 1,— Прим. nepeet
314 Гл. XII. Сложные распределения. Ветвящиеся процессы Патель появляется с вероятностью р, а с вероятностью q=l—р не появляется. Покупатель, который прибывает, когда продавец сво- боден, немедленно начинает обслуживаться; в противном случае 6н становится в очередь. Продавец работает без перерывов, пока в очереди есть покупатели, ожидающие обслуживания. Мы предпо- лагаем, наконец, что последовательные времена обслуживания яв- ляются независимыми (целочисленными) случайными величинами с одним и тем же распределением {pft} и производящей функцией ₽(s)=2|3ftS*. Допустим теперь, что покупатель появляется в нулевой момент времени и застает продавца свободным. Немедленно начинается об- служивание. Если оно имеет длительность п, то продавец освобож- дается в момент п при условии, что в моменты 1, 2, . . ., п не появ- лялись новые покупатели. В противном случае обслуживание про- должается без перерыва. Периодом занятости мы называем длитель- ность непрерывного обслуживания, начавшегося в нулевой момент времени. Мы покажем, как можно использовать теорию ветвя- щихся процессов при изучении длительности периода занятости. Покупатель, появившийся в момент 0, начинает период занятос- ти и будет называться предком. Первое поколение «частиц» состоит из покупателей, появившихся до момента окончания обслуживания предка или в этот момент. Если непосредственные потомки отсутст- вуют, то процесс вырождается. В противном случае непосредствен- ные потомки последовательно обслуживаются, а появляющиеся за их времена обслуживания их непосредственные потомки присоеди- няются к очереди. Мы имеем здесь такой ветвящийся процесс, в котором вероятность вырождения х равна вероятности того, что период занятости конечен, а множество всех «частиц» состоит из всех покупателей (включая предка), прибывших в течение периода занятости. Необходимо отметить, что практически возможны толь- ко очереди с х=*1. Для применения наших результатов необходимо знать произ- водящую функцию P(s) числа непосредственных потомков. По опре- делению это число определяется случайной суммой Xf+. . .+XN, где X,- взаимно независимы и принимают значения 1 и 0 с вероят- ностями р и q, a N — время обслуживания предка. Поэтому в рас- сматриваемой ситуации Р(s)=p \ps-\-q), и, следовательно, fx=pcr, где cr=P' (1) — математическое ожидание длительности обслужи- вания. Значит, период занятости с вероятностью 1 конечен только при рв^Л. Математическое ожидание числа покупателей, прибы- вающих за время периода занятости, конечно только при ра<;1. Иначе говоря, при ро=1 неминуема давка, а если ра несущественно меньше 1, то длинные очереди должны быть обычным явлением. в) Длительность периода занятости. В предыдущем примере изучалось число покупателей, прибывающих за время периода за- нятости, однако для практики большой интерес представляет дли- тельность этого периода. Ее можно найти при помощи изящного
§6. Задачи 315 приема х), состоящего в рассмотрении целочисленных моментов времени как частиц ветвящегося процесса. Будем говорить, что момент времени п не имеет потомков, если в этот момент не появля- ется покупатель. Если же покупатель появляется и его обслужива- ние начинается в момент т^п и длится г единиц времени, то момен- ты времени т+1, . . ., m+r рассматриваются как непосредственные потомки момента п. Предположим, что в момент времени 0 продавец свободен. Несложное рассуждение показывает, что тогда либо по- купатель не появляется и ветвящийся процесс не начинается вооб- ще, либо покупатель появляется и участвующие в ветвящемся про- цессе частипы (моменты времени) образуют период занятости. Про- изводящая функция числа непосредственных потомков имеет вид P(s)=7+pp(s). (5.7) Корень х равен вероятности того, что период занятости конечен. Общее число частиц с вероятностью равно 1 и с вероятностью р рав- но длительности периода занятости, начавшегося в момент 0. Оче- видно, длительность периода занятости имеет производящую функ- цию ₽(р(з)). ► § 6. ЗАДАЧИ 1. Распределение (1.1) случайной суммы SN имеет среднее Е (N) Е (X) и дисперсию Е (N) Var (X) + Var (N) Е* 2 (X). Убедиться в этом: а) при помощи производящих функций, б) непосредственно из определения при помощи условных математических ожиданий. 2. Отлов животных (пример 1, б)). Доказать следующие утверждения* Если {g„}— геометрическое распределение, то искомое распределение тоже будет геометрическим. Если {g„} — логарифмическое распределение (см. (2.8))g то искомое распределение будет логарифмическим с добавочным членом. 3. Если случайная величина N имеет распределение Пуассона, то в N испытаниях Бернулли числа успехов и неудач стохастически независимы* Обобщить этот результат на полиномиальное распределение: а) непосредст- венно, б) используя производящие функции от нескольких переменных. (Ср. с примером гл. IX, 1, г).) 4. Рандомизация. Пусть N имеет распределение Пуассона с параметром X, и пусть N шаров случайно размещаются по п ящикам. Показать без вычис- лений, что вероятность получить при этом ровно т пустых ящиков равна (п | (1_______ \т J 5. Продолжение2). Показать, что если по п ящикам случайно размещается фиксированное число г шаров, то вероятность получить ровно т пустых ящиков равна коэффициенту при е~кКг/г! в разложении приведенного выше выражения в ряд. а) Обсудить связь с производящими функциями моментов (задача 24 гл. XI, 7). б) Использовать этот результат для того, чтобы без всяких усилий получить соотношение (11.7) гл. II, х) Этот прием предложил И. Дж. Гуд; см. материалы дискуссии, приведенные после статьи Кендалла, цитированной в примере 3, г). 2) Этот изящный способ получения разнообразных комбинаторных формул с помощью рандомизации параметра предложил Домб (Domb С., On the use of a random parameter in combinatorial problems, Proceedings Physical Society, Sec. A, 65 (1952), 305—309).
316 Гл. XII. Сложные распределения. Ветвящиеся процессы 6. Смеси вероятностных распределений. Пусть {//} и {gj—два вероят- ностных распределения, а > 0, 0 > 0, а + 0=1. Тогда {a/z + ₽gj тоже является вероятностным распределением. Обсудить смысл этого преобразо- вания и связь с урновыми схемами гл, V, 2. Обобщить на случай многих распределений. Показать, что такая смесь может быть обобщенным распре- делением Пуассона. 7. При помощи производящих функций показать, что в ветвящемся про- цессе Var (Zn+i) = ji Var (Z„) + p>2no2. Используя условные математические ожидания, доказать эквивалентное соотношение Var (Zn+j)=p,2 Var (Zn) + |x"o2e Из каждого из этих соотношений вывести равенство Var (Z„) = o2 (ll2w~2 + р.2/2”3+ ... 8. Продолжение. Показать, что если п > т, то Е (ZnZw) = рД~'ЛЕ (Z^)« 9. Продолжение. Показать, что производящей функцией совместного рас- пределения (Z^, ZJ является Рт (s1Pn^m (s2)). Использовать этот факт для проверки утверждения из задачи 8. 10. Как изменится ветвящийся процесс, если каждая частица перед раз- множением может исчезнуть с фиксированной вероятностью р? 11. Ветвящиеся процессы с двумя типами частиц. Допустим, что каждая частица может иметь потомков двух типов; распределения чисел потомков частиц двух типов задаются производящими функциями Р± (si, s2) и ($1, $2)- В этом случае существует две вероятности вырождения х, у в зависимости от типа предка. Показать^ что пара (х, у) удовлетворяет уравнениям х = Р1(х,- у), у = Ръ(х,у). (6.1) Доказать, что эти уравнения имеют не более одного решения O^x^l, отличного от (1, 1). Решение (1, 1) единственно тогда и только тогда, когда ц22<1 и (1— |лц) (1— Н22) Ss Ц12Р21. где ц17 = = dPi(\, Vtftej.
ГЛАВА XIII РЕКУРРЕНТНЫЕ СОБЫТИЯ. ТЕОРИЯ ВОССТАНОВЛЕНИЯ § 1. НЕФОРМАЛЬНОЕ ВВЕДЕНИЕ И ПРИМЕРЫ Мы будем изучать некоторые повторяющиеся, или рекуррент- ные, наборы исходов, связанные с последовательностями испытаний. Говоря нестрого, набор $ годится для последующей теории, если после каждого появления набора S испытания начинаются заново в том смысле, что последовательность испытаний, следующих за появлением^, образует копию всей последовательности. Промежут- ки времени между последовательными появлениями S — взаимно независимые одинаково распределенные случайные величины. В простейшем частном случае используется как обозначение «успеха» в последовательности испытаний Бернулли. Время ожи- дания первого успеха имеет геометрическое распределение; когда достигается первый успех, испытания начинаются заново и число испытаний между r-м и (г-М)-м успехами имеет то же самое геомет- рическое распределение. Время ожидания r-го успеха является сум- мой г независимых случайных величин (пример гл. IX, 3, в)). Эта ситуация повторяется, когда S обозначает «успех, за которым сле- дует неудача»: появление набора УН восстанавливает исходное по- ложение и время до появления следующего УН не зависит от исхо- дов предыдущих испытаний. Приведем противоположный пример: пусть к группе людей последовательно присоединяются новые чле- ны, и пусть <§ — событие «у двух человек в группе дни рождения совпадают». Такое событие S не является повторяющимся, потому что после первого его появления оно происходит постоянно. Если мы заменим определение на «<§ происходит, когда день рождения нового члена группы уже встречался в ней», то <§ может происходить любое число раз, но после появления процесс не начинается заново. Это происходит потому, что с увеличением размера группы совпадения дней рождения становятся более вероятными, и поэто- му большое время ожидания первого повторения дней рождения сочетается с более коротким временем ожидания второго повторе- ния; таким образом, последовательные времена ожидания не явля- ются независимыми и имеют неодинаковые распределения. Большое значение теории рекуррентных событий объясняется тем, что часто такие события возникают в связи с различными по- следовательностями случайных величин (случайными процессами). Сложность законов, которым подчиняется последовательность слу- чайных величин, может сделать невозможным ее исчерпывающий
318 Гл. XIII. Рекуррентные события. Теория восстановления анализ, однако существование повторяющихся событий всегда по- зволяет указать характерные особенности последовательности, до- казать существование некоторых пределов и т. п. Такой подход способствует упрощению и стандартизации многих исследований. Мы рассмотрим теперь несколько типичных примеров; некото- рые из них представляют и самостоятельный интерес. Первые при- меры связаны с обычными испытаниями Бернулли, последние три касаются более сложных схем. В их описаниях мы используем такие термины, как «продавец» и «покупатель», но каждый раз приводится математическое определение последовательности случайных вели- чин, которое является полным в том смысле, что оно однозначно определяет вероятности всех возможных событий. Часто оказыва- ется, что теория рекуррентных событий позволяет получать содер- жательные результаты даже в тех случаях, когда основные вероят- ности не могут быть вычислены в явном виде. Примеры, а) Возвращение в начало. Пусть для последовательно- сти испытаний Бернулли £ обозначает событие «суммарные числа успехов и неудач равны». Как и ранее, мы описываем исходы испы- таний последовательностью Xi, Х2, . . . взаимно независимых слу- чайных величин, принимающих значения 1 и —1 с вероятностями р и q соответственно. Как обычно полагаем So=O, Sn = Xf+. . .+Xn. (1.1) Тогда Sn — это разность между числом успехов и числом неудач, и событие <В происходит тогда и только тогда, когда Sn=0. Совер- шенно ясно, что наступление этого события восстанавливает ис- ходную ситуацию в том смысле, что последующие частные суммы + ^«+2» • • . образуют вероятностную копию всей последователь- ности Si, S2, . . . . (Продолжение см. в примере 4, б).) б) Возвращение в начало по отрицательным значениям. Усложним последний пример: будем считать, что S происходит при n-м испы- тании, если Sn=0, но Sx<0, . . ., Sw_i<0. (1.2) Очевидно, что и в этом случае наступление события S означает, что мы начинаем все сначала. (Продолжение см. в примере 4, в).) в) Другим вариантом примера а) является событие S, состоящее в том, что суммарное число успехов в К раз больше суммарного числа неудач (где %>0 — произвольное, но фиксированное число). Если S происходит при п-м испытании, то оно происходит еще раз при (п+т)-м испытании только тогда, когда число успехов в испыта- ниях с номерами от п+1 до п+т ровно в X раз больше числа неудач. Промежутки между последовательными появлениями S являются поэтому независимыми и одинаково распределенными. В качестве частного случая можно рассмотреть событие, состоящее в том, что при 6п бросаниях идеальной кости единица появится ровно п раз. (Продолжение см. в задачах 4 и б.)
§ L Неформальное введение и примеры 319 г) Лестничные величины. Сохраняя обозначения примера а), мы введем новое повторяющееся событие S, которое происходит при п-м испытании, если Sn больше всех предыдущих сумм, т. е. если Sn>0, Sn>Si, . . Sn>Sn_j. (1.3) Если S происходит при n-м испытании, то процесс начинается заново в следующем смысле. При условии, что (1.3) выполнено, событие S происходит при (n-j-m)-M испытании тогда и только тогда, когда . ., Sn+zn>Sn+w_j. (1.4) Но разности Sn+k—Sn—это частные суммы оставшейся последо- вательности X„+f, Хл+2, . . ., и поэтому новое появление S для этой оставшейся последовательности определяется точно так же, как событие <§ определялось для всей последовательности. Иначе говоря, при изучении события S все прошлое становится несу- щественным каждый раз, когда происходит S. (Продолжение см. в примере 4, г).) д) Серии успехов в испытаниях Бернулли, В предыдущих приме- рах определение события не вызывало трудностей; теперь мы рассмотрим случай, когда применение теории рекуррентных собы- тий становится возможным только при весьма осмотрительном выбо- ре определения. Обычно слова «серия успехов длины г» использу- ются для обозначения отрезка последовательности, состоящего ров- но из г или не менее чем из г успехов. Ни одно из этих толкований не соответствует рекуррентному событию. В самом деле, если тре- буется наличие ровно г успехов, то успех в (и+ 1)-м испытании может разрушить серию, завершившуюся к n-му испытанию. С другой стороны, если требуется наличие не менее чем г успехов, то любая серия может продолжаться неограниченно, и ясно, что появление серии не восстанавливает исходного положения. Классическая теория серий была довольно беспорядочной, и более систематический подход становится возможным, если опреде- лять серию длины г так, чтобы она стала рекуррентным событием. Первая серия длиной г определена однозначно, и мы условимся начинать наблюдения заново каждый раз, когда появляется серия. При таком соглашении последовательность УУУ\УНУУУ\УУУ\Н содержит три серии успехов длины 3 (появляющиеся при испыта- ниях с номерами 3, 8 и 11). Она содержит пять серий длины 2 (испытания с номерами 2, 4, 7, 9, 11). Формальное определение таково: последовательность из п букв У и Н содержит столько У-серий длины г, сколько существует непересекающихся отрезковг состоящих в точности из г букв У каждый. При таком согла- шении мы говорим, что S происходит при n-м испытании, если к последовательности прибавляется новая серия длиной г. Это определяет рекуррентное событие и значительно упрощает тео- рию, не изменяя ее основных результатов. (Продолжение см. в § 7.)
320 Гл, XIII. Рекуррентные события. Теория восстановления е) Продолжение', близкие события. Очевидно, что рассуждения, проведенные в предыдущем примере, применимы к более общим событиям, например к появлению последовательности У НУН. Бо- лее интересным является то, что ограничение одним фиксированным набором вовсе не обязательно. Например, появление «двух успехов и трех неудач» определяет повторяющееся событие, как и появле- ние «либо серии успехов длины г, либо серии неудач длины р». (Продолжение см. в § 8.) ж) Счетчики Гейгера. Работу счетчиков, используемых при ре- гистрации космических лучей и а-частиц, можно описать следую- щей упрощенной моделью1). Испытания Бернулли проводятся с по- стоянной скоростью. Счетчик предназначен для регистрации успе- хов, однако его механизм после каждой регистрации запирается ровно на г—1 испытаний. Иначе говоря, успех в n-м испытании ре- гистрируется тогда и только тогда, когда в предыдущих г—1 испы- таниях успехи не регистрировались. После этого счетчик запирает- ся до тех пор, пока не закончатся испытания с номерами п, . . ., п+г—1, и «освобождается» после (п+г)-го испытания, если оно при- водит к неудаче. Последовательность на выходе счетчика представ- ляет собой пример зависимых испытаний. За каждой регистрацией следует «мертвое время», однако в моменты, когда счетчик «свобо- ден» (не заперт), состояния счетчика идентичны, и испытания начи- наются заново. Обозначая буквой S событие «после испытания счетчик свободен», мы получаем типичное рекуррентное событие. (Продолжение см. в примере 4,д).) з) Простейшая модель очереди строится по последовательности испытаний Бернулли и последовательности случайных величин Xf, Х2,. . м принимающих только целые положительные значения. Величины имеют одно и то же распределение {|Зт }, взаимно не- зависимы и не зависят от испытаний Бернулли. Успех в n-м ис- пытании мы интерпретируем как появление в момент времени п покупателя (или вызова на телефонной станции). Случайная ве- личина Xk равна времени обслуживания k-ro покупателя. В любой момент времени продавец либо «свободен», либо «занят», и процесс развивается по следующим правилам. Вначале (в момент времени 0) продавец свободен. Если покупатель появляется, когда прода- вец свободен, то обслуживание начинается немедленно, и после появления этого покупателя продавец занят в течение времени его обслуживания. Покупатели, которые приходят, когда продавец за- нят, образуют очередь. Продавец обслуживает покупателей непре- рывно до тех пор, пока очередь не рассосется. Эти правила определяют процесс однозначно, и по заданным 4) Это дискретный аналог так называемых счетчиков первого типа. Счетчики второго типа описаны в задаче 8. (Более подробную информацию о теории счетчиков можно найти в книге Кокс Дч Смит В;| Теория восстановления»— М»; Советское радио, 1967»— Перев.\
§ 1. Неформальное введение и примеры 321 варианту {У, Н, У, У, У, Я, } процесса прибытия покупа- телей и варианту {3, 1, 17, 2, . . .} последовательных времен об- служивания нетрудно найти размер очереди в любой момент вре- мени и время ожидания k-ro покупателя. Таким образом, в принци- пе мы могли бы вычислить все интересующие нас вероятности, одна- ко найти практичные методы вычислений нелегко. Ясно, однако, что каждый раз, когда продавец свободен, ситуация является в точно- сти такой же, как в нулевой момент времени. Поэтому в нашей терминологии условие «продавец свободен» задает рекуррентное со- бытие. Мы увидим, что само существование таких рекуррентных со- бытий имеет важные последствия; например, оно означает, что рас- пределения вероятностей размера очереди в момент п, времени ожидания n-го покупателя и аналогичных случайных величин стре- мятся к некоторым пределам, когда п->оо (теорема 5.2). Иначе говоря, существование рекуррентных событий позволяет доказы- вать существование стационарного режима и изучать его основные свойства. и) Обслуживание станков. Представление об области примени- мости метода рекуррентных событий может дать вариант предыду- щего примера, в котором появления покупателей определяются уже не испытаниями Бернулли. Интерпретируем «покупателей» как оди- наковые станки, подверженные случайным поломкам, а «продав- ца» — как ремонтного рабочего. Мы сохраним предположения о порядке обслуживания и образования очереди, но введем новый случайный механизм «появления покупателей», т. е. поломок. Пред- положим, что общее число станков равно N, и рассмотрим два крайних случая. i) Предположим сначала, что если станок исправен, то с фик- сированной вероятностью р он может сломаться в следующий цело- численный момент времени; когда станок ломается, он заменяется точно таким же новым станком, и время обслуживания — это вре- мя, затрачиваемое на установку нового станка. Мы считаем, что станки независимы и что их поломки определяются N независимыми последовательностями испытаний Бернулли. Заметим, что чем боль- ше станков находится в очереди, тем меньше станков исправно, и следовательно, длина очереди в любой момент времени влияет на вероятность новых поломок (или заявок на ремонт). В этом со- стоит существенное отличие от предыдущего примера, однако усло- вие «продавец свободен» тем не менее определяет рекуррентное со- бытие, поскольку независимо от момента его наступления оно озна- чает наличие одной и той же ситуации. ii) Допустим теперь, что каждый ремонт обладает последейст- вием, а именно увеличивает вероятность последующих поломок. Это означает, что станки постепенно изнашиваются, и поэтому после поломки хотя бы одного станка повторение благоприятной исходной ситуации оказывается невозможным. В этом случае рекур- рентных событий, облегчающих анализ, не существует. И № 224
322 Гл» XIII» Рекуррентные события» Теория восстановления § 2. ОПРЕДЕЛЕНИЯ Рассмотрим последовательность повторяющихся испытаний с возможными исходами Ej (/ = 1, 2, ». .). Испытания не обязаны быть независимыми (наиболее интересными оказываются применения к цепям Маркова). Как обычно, мы предполагаем, что испы- тания могут продолжаться неограниченно и что вероятности Р{£/р £/2, ...» Ejn\ определяются однозначно для всех конечных наборов. Пусть S—некоторое свойство конечных последователь- ностей, т. е. мы предполагаем, что для любого набора (£\, ..., £/„) можно сказать, обладает он свойством S или нет. Будем понимать выражение происходит на n-м месте в (конечной или беско- нечной) последовательности £уа, ...» как синоним слов «под- последовательность £/,, £/2, ..., Ejn обладает свойством <£». Эта договоренность означает, что появление <§ при n-м испытании зависит только от исходов первых п испытаний. Подразумевается также, что, говоря о «рекуррентном событии £», мы на самом деле имеем в виду класс событий, определенных условием про- исходит». Ясно, что $ является скорее набором символов, чем событием. Здесь мы несколько вольно обращаемся с языком, так же как, например, при использовании термина «двумерная задача»: задача сама по себе не имеет размерности. Определение 1. Свойство S определяет рекуррентное событие, если': а) для того чтобы S происходило на п-м и (п + т)-м местах последовательности (Eit, Ejz, .»., Ejn+m), необходимо и доста- точно, чтобы S происходило на последнем месте каждой из двух подпоследовательностей (Eh, Eiz, »»», Ein) и (Ejn+i, Ein+i, »»», Ejn+my, б) если S происходит на п-м месте, то P{Elt, .... Eln+m)~P{Elt.....Eln\P{Ein+l, .... Ejn+m}. Теперь приобретают очевидный смысл утверждения о том, что $ впервые происходит в последовательности (£\, Ejs, ...) на п-м месте, и т. п. Ясно также, что с каждым рекуррентным собы- тием S связаны две последовательности чисел, определенные для л=1, 2, ... следующим образом: ^==Р{(£ происходит при n-м испытании}, 9 - = впервые происходит при n-м испытании}. ' ’ ' Для дальнейшего удобно положить = = 1 (2.2) и ввести производящие функции (2.3) k=l fe=0
§ 2. Определения 323 Заметим, что {uh} не является распределением вероятностей; более того, в типичных случаях = С другой стороны, события «<£ впервые происходит при n-м испытании» несовместны, и поэтому Z = F(l)=2fn<l. (2.4) Л=1 Ясно, что 1—f следует интерпретировать как вероятность того* что S ни разу не происходит в продолженной до бесконечности последовательности испытаний. Если f=l, то мы можем ввести случайную величину Т с распределением Р{Т = и} = /„. (2.5) Обозначение (2.5) мы будем использовать и при /<1. В этой ситуации Т оказывается несобственной (или дефектной) случайной величиной, которая с вероятностью 1 —f не принимает никакого численного значения. (Нам будет удобно приписывать Т значение оо, и должно быть ясно, что при этом не потребуется вводить новые правила.) Время ожидания события <£, т. е. число испытаний до первого появления S (включая это испытание), является случайной вели- чиной с распределением (2.5); однако эта случайная величина естественно определяется только на пространстве бесконечных последовательностей (Е}1, Е]2, . ..). По определению рекуррентных событий вероятность того, что впервые произойдет при /?-м испытании и во второй раз при n-м испытании, равна fkfn^k- Поэтому вероятность f™ того, что S происходит во второй раз при n-м испытании, равна + (2.6) Правая часть—свертка {/„} с собой, и поэтому {^2)} есть распре- деление вероятностей суммы двух независимых случайных вели- чин, имеющих распределение (2.5). Вообще, если f(”—вероятность того, что r-е появление <£ происходит при n-м испытании, то = + + (2.7) Этот простой факт выражает следующая теорема. Теорема. Пусть — вероятность того, что r-е появление <§ происходит при n-м испытании. Тогда {№}—распределение вероятностей суммы Т<'> = Т1 + Т2+...+Тг (2.8) г независимых случайных величин Тр ..., Тг, имеющих распреде- ление (2.5). Иначе говоря, при фиксированном г последователь- ность имеет производящую функцию Fr(s). 11*
324 Гл. XIII. Рекуррентные события. Теория восстановления Отсюда следует, в частности, что 2^ = F41)=fr- (2-9) п= 1 Иначе говоря, вероятность того, что <§ произойдет по меньшей мере г раз, равна fr (это можно было предвидеть). Введем теперь следующее определение. Определение 2. Рекуррентное событие S будем называть воз- вратным1), если f = l, и невозвратным, если /< 1. Для невозвратного события (§ вероятность fr того, что оно произойдет по меньшей мере г раз, стремится к нулю, тогда как для возвратного <§ эта вероятность остается равной единице. Это можно описать словесно: с вероятностью единица возвратное событие происходит бесконечно много раз, а невозвратное событие S происходит лишь конечное число раз. (Это утверждение является не только описательным, но и формально правильным при интерпретации в терминах пространства элементарных событий, состоящего из бесконечных последовательностей Е^, Е}-2, ... .) Нам потребуется еще одно определение. При испытаниях Бер- нулли возвращение в начало (см. пример 1, а)) может произойти только при испытании с четным номером. В таком случае f2n+1 =* ==u2rt+1 = 0 и производящие функции F (s) и U (s) являются сте- пенными рядами не по s, а по s2. Аналогично, если в примере 1,в) число X целое, то S может произойти при n-м испытании только при условии, что п делится на Х-|-1. В таких случаях мы будем называть S периодическим. По существу периодические рекуррент- ные события лишь обозначениями отличаются от непериодических, но в каждой теореме приходится специально упоминать об исклю- чительном периодическом случае. Таким образом, периодические рекуррентные события доставляют много неприятностей, не внося ничего интересного. Определение 3. Рекуррентное событие S называется периоди- ческим, если существует такое целое число Ас>1, что S может про- исходить только при испытаниях с номерами X, 2Х, 3k,. . . (т. е. ип=0, если п не делится на к). Наибольшее к, обладающее этим свойством, называется периодом &. В заключение заметим, что на пространстве элементарных со- бытий, состоящем из бесконечных последовательностей Ej, Е^, . . ., число испытаний между (г—1)-м и r-м появлениями S являет- ся корректно определенной случайной величиной (может быть, не- собственной) с тем же распределением, что Тг. Иначе говоря, наши случайные величины Тг действительно соответствуют про- *) В первом издании использовались термины «достоверное» (certain) и «недо- стоверное» (uncertain) событие; введенные здесь термины предпочтительнее в при- менениях к цепям Маркова,
§3. Основные соотношения 325 межуткам времени между последовательными появлениями <§ (временам возвращения). Мы определили Тг аналитически, чтобы не использовать такие пространства элементарных событий, кото- рые в этом томе не рассматриваются; будем надеяться, однако, что вероятностная подоплека показана во всей ее интуитивной просто- те. Понятие рекуррентных событий предназначено для сведения весьма общей ситуации к суммам независимых случайных величин. Обратно, любое распределение вероятностей {fn},n=l,2,. . ., можно использовать для определения рекуррентного события. Это утверж- дение доказывает следующий пример. Пример. Самовосстанавливающиеся устройства. Рассмотрим электрическую лампочку, плавкий предохранитель или иной эле- мент с конечным сроком службы. Как только этот элемент отказыва- ет, он заменяется новым элементом того же вида, который рано или поздно заменяется третьим элементом, и т. д. Допустим, что срок службы — случайная величина, принимающая только значения, кратные единичному отрезку времени (году, дню или секунде). Тогда каждая единица времени представляет собой испытание с возможными исходами «замена» или «нет замены». Последователь- ные замены можно истолковывать как рекуррентные события. Ес- ли fn — вероятность того, что новый элемент проработает ровно п единиц времени, то {fn} — распределение времени возвращения. Если срок службы с вероятностью 1 конечен, то 2 fn== 1 и рекуррент- ное событие является возвратным. Как правило, известно, что срок службы не может превосходить фиксированного числа т; в таком случае производящая функция F (s) —многочлен степени не выше т, В приложениях нужно знать вероятность ип того, что в момент п происходит замена. Значение ип можно вычислить с по- мощью (3.1) (см. ниже). Мы получили здесь класс рекуррентных со- бытий, определяемых произвольным распределением {fn}. Случай f<l не исключается: 1—f — это вероятность бесконечного срока службы нашего элемента. ► § 3. ОСНОВНЫЕ СООТНОШЕНИЯ Мы продолжаем пользоваться обозначениями (2.1) — (2.4) и со- бираемся изучить связь между {fn\ и {ип}. Вероятность того, что S происходит впервые при v-м испытании, а затем снова при испытании с номером п > v, по определению равна fvun_v. Вероят- ность того, что происходит при n-м испытании впервые, есть fn = fnUb, Поскольку эти случаи взаимно несовместны, мы имеем "Л=/:1«П-1+/:2«П-2+ ••• +/»««. (31) В выражении справа мы узнаем свертку {fk}*{Uk}> производящая функция которой равна F(s)U(s). В левой части мы обнаружи- ваем последовательность [ип^ без члена и0, так что ее произво-
326 Гл. XIIL Рекуррентные события. Теория восстановления дящая функция есть U (s) — 1. Таким образом, U ($) — 1 = F (s) U (s), и нами доказана следующая теорема. Теорема 1. Производящие функции {ип} и {fn} связаны соотно- шением U (s)=l/(l-F(s)). (3.2) Замечание. Правую часть (3.2) можно разложить в геометри- ческий ряд сходящийся при | s | < 1. Поскольку коэффи- циент f (пг) при sn в Fr (s) равен вероятности r-го появления S при n-м испытании, соотношение (3.2) эквивалентно равенству = + (3.3) выражающему тот очевидный факт, что если S происходит при n-м испытании, то до момента п оно происходило 0, 1,2, ... или п—1 раз. (Очевидно, f(nn~0 при г > п.) Теорема 2. Для того чтобы событие S было невозвратным, необходимо и достаточно, чтобы величина u= S и, (3.4) 7=0 была конечной. В этом случае вероятность того, что S происхо- дит хотя бы раз, равна f=(u—l)/u. (3.5) Замечание. Мы можем интерпретировать щ как математическое ожидание случайной величины, которая равна 1 или 0 в зависимо- сти от того, происходит или не происходит S при /-м испытании. Следовательно, ^1+^2+. • -+^п есть математическое ожидание числа появлений Sen испытаниях, а и — 1 можно интерпретировать как математическое ожидание числа появлений S в бесконечной последовательности испытаний. Доказательство. Поскольку коэффициенты uh неотрицательны, ясно, что U (s) монотонно возрастает при s->l и что при любом Л/ N оо 2 пп lim U (s) 2 ип = п=0 s -> 1 п=0 Так как (/($)—>(1—когда /<1, и U (s) —> 00, когда/ = 1, то теорема доказана. Следующая теорема чрезвычайно важна х). Ее доказательство х) В частных случаях ее утверждение легко доказывается (см. задачу 1) и давно известно. Огромное количество работ было посвящено ослаблению ее ус- ловий, но все были уверены в том, что какие-то ограничения необходимы. В полной общности теорема 3 была доказана Эрдёшем, Феллером и Поллардом (Erdos Р.,
§4, Примеры 327 элементарно, но мы отложим его до конца главы, поскольку оно не помогает понять вероятностную основу теоремы х). Теорема 3. Пусть событие S возвратно и непериодично; обо- значим через р математическое ожидание времени возвраще- ния Tv, т. е. н=S iff=/='(!) (3.6) (допускается случай р = оо). Тогда un—+\i~l при п—+оо (3.7) (ип-+$, если математическое ожидание времени возвращения бес- конечно). От условия непериодичности S легко избавиться. Действительно, если S имеет период X, то ряд ^fnsn содержит только степени Будем называть степенной ряд правильным, если это не так для любого целого Х>1. Теорему 3 можно тогда переформулировать следующим образом: если F—правильная вероятностная произ- водящая функция и U определяется соотношением (3.2), то ип—► X/F' (1). Далее, если имеет период К, то F (s1/x)— пра- вильная вероятностная производящая функция, и поэтому коэффи- циенты U (s1/x) сходятся к X/F' (1). Таким образом, нами доказана следующая теорема. Теорема 4. Если S возвратно и имеет период X, то (3.8) и uk = 0 при любом А, не делящемся на X. § 4. ПРИМЕРЫ а) Успехи в испытаниях Бернулли. Рассмотрим банальный пример, когда S обозначает «успех» в последовательности испыта- ний Бернулли. Тогда ип — р при п^1, откуда ^(5) = Т=Т’ и поэтомУ = (4Л) Feller W., Pollard Н., A property of power series with positive coefficients, Bull. Amer. Math. Soc., 55 (1949), 201—204). После выхода в свет первого издания Чжун Кайлай заметил, что теорему можно вывести из результатов Колмогорова, описывающих асимптотическое поведение цепей Маркова. Многие известные мате- матики доказывали различные обобщения этой теоремы для разных классов рас- пределений вероятностей. Эти исследования способствовали развитию методов современной теории вероятностей . В конце концов оказалось, что аналог теоре- мы 3 справедлив для любых распределений вероятностей. Элементарное (но не простое) доказательство см. в гл. XI, 9 тома 2. г) Вероятностное доказательство этой теоремы (с явной оценкой скорости сходимости при |ы<оо) можно найти в работе Калашников В. В. Равномерная оценка скорости сходимости в теореме восстановления для дискретного времени.— Теория вероятн. и ее примен., 1977, т. XXII, № 1, 399—403.— Прим, twpee.
328 Гл, XIЛ. Рекуррентные события. Теория восстановления в силу (3.2). В этом частном случае теорема 2 попросту подтверждает очевидный факт: промежутки времени между последовательными успехами имеют геометрическое распределение с математическим ожиданием 1/р. б) Возвращения в начало (пример 1,а)). При &-м испытании сум- марные числа успехов и неудач могут быть равны только тогда, когда к=2п четно, и в этом случае вероятность возвращения в на- чало есть /2п\ /_1/2Х п ) pnqn = п ) (~^рфп- (4-2) Из разложения бинома (формула (8.7) гл. II) следует поэтому, что и (s) = l/Kl— 4Ws2, (4.3) а отсюда и из (3.2)—что F (s) = 1 — /1—4^s2. (4.4) Повторное использование разложения бинома приводит к явному выражению для f2n. (Явные выражения для и2п и f2n при р=1/2 выведены комбинаторными методами в гл. III, 2—3; производящие функции U и F найдены другими способами в гл. XI, 3. Следует отметить, что лишь предложенный выше метод не требует изобре- тательности.) При s=l квадратный корень в (4.4) равен \р—q\, и поэтому f=l-\p-q\. (4.5) Таким образом, возвращение в начало представляет собой ре- куррентное событие с периодом 2, которое невозвратно при p=£q и возвратно в симметричном случае p=q. Вероятность по меньшей мере г возвращений в начало равна fr. Когда р=<7=1/2, время ожидания первого возвращения в на- чало является собственной х) случайной величиной, но F' (1) = оо, и поэтому среднее время возвращения р бесконечно, (Это следует так- же из теоремы 4 и из того, что цп->0.) Бесконечность среднего вре- мени возвращения означает, что случайные флуктуации в длитель- ной реализации игры с бросанием монеты существенно отличаются от обычной модели, описываемой нормальным распределением. Весьма парадоксальный характер этих флуктуаций обсуждался в гл. III. в) Возвращение в начало по отрицательным значениям. В при- мере 1, б) возвращение в начало удовлетворяло условию, состоя- щему в том, что ни одна из предшествующих частных сумм S,- не положительна. Распределение времени возвращения для этого ре- *) Случайная величина называется собственной (proper), если она с вероят- ностью 1 принимает конечные значения (см. формулы (2,4), (2.5)).— Прим, перев*
§ 4. Примеры 329 куррентного события определяется равенством fe=P{S2„=0, SxCO,. . S^CO}, (4.6) и, конечно, Кажется, что найти эти вероятности прямым рассуждением невозможно, однако их легко вычислить с помощью предыдущего примера. В самом деле, реализация последовательно- сти (Хъ. . Х2п), удовлетворяющая условию (4.6), содержит п положительных единиц и п отрицательных единиц и, значит, имеет ту же вероятность, что (—Хх, . . —Х2п). Далее, первое возвра- щение в начало происходит либо по положительным, либо по отри- цательным значениям, и мы заключаем, что эти две возможности имеют одинаковые вероятности. Следовательно, /Ггг=(1/2) /2rt, где {fn} — распределение возвращений в начало, найденное в преды- дущем примере. Поэтому производящая функция наших времен возвращения задается формулой F“(s) = l/2—(1/2) К1— W2, (4.7) и, значит, = —2 -(4.8) i + Ki—w2 2p^s Событие S невозвратно, вероятность его наступления равна 1/2—(1/2) |р— г) Лестничные величины. Первая положительная частная сумма может появиться при &-м испытании только тогда, когда k = 2п -|-1 нечетно. Соответствующие вероятности мы запишем в виде q)2»+i = P{S1<0...S,„ = 0, SiB+1 = l}. (4.9) Таким образом, —распределение рекуррентного события из примера 1,г). Далее, из условия (4.9) следует, что Х§„+1 = 1 и что при 2п-м испытании происходит рекуррентное событие из преды- дущего примера. Значит, cp2n+i = £• Поэтому в очевидных обозначениях Ф(з) = psU" (s) = (l— J/" 1—4pqs2)/(2qs). (4.10) Это производящая функция времени первого достижения, найден- ная в гл. XI (формула (3.6)). Явное выражение для <p2„+i можно вывести из (4.10) с помощью разложения бинома (гл. II, фор- мула (8.7)). Оно совпадает с выражением для <p2«+i> найденным комбинаторными методами в теореме 2 гл. III, 7. д) Счетчики Гейгера. В примере 1, ж) счетчик остается сво- бодным, если в момент времени 1 не происходит регистрации. В противном случае он запирается и вновь «освобождается» в мо- мент времени г 4~ 1, если в этот момент не появляется частица; счетчик «освобождается» в момент времени 2г 4-1, если частица появляется в момент времени г 4*1, но не появляется в момент
330 Гл. XI11. Рекуррентные события. Теория восстановления 2г 4*1, и т. д. Производящей функцией времени возвращения яв- ляется поэтому qs + qpsr+1 + qp2s2r+l + . . . = #$/(1—psr). (4.11) (См. также задачи 7—9.) е) Простейшая задача теории очередей (пример 1,з)). В этом случае продавец остается свободным, если в момент времени 1 не появляется покупатель. Если же покупатель появляется, то начи- нается так называемый «период занятости», который заканчивается в момент, когда продавец впервые освобождается. Производящая функция p(s) периода занятости выводилась в примере гл. XII, 5, в) при помощи методов теории ветвящихся процессов. Нетрудно вывести, что в нашем случае производящая функция времени воз- вращения имеет вид 9s+psp(s), что согласуется с формулой (5.7) гл. XII. ж) Ничьи в играх с бросанием нескольких монет. В заключе- ние приведем простой пример, демонстрирующий возможность получить некоторые выводы, не зная явного вида производящих функций. Пусть г>2—произвольное целое число; рассмотрим последовательность одновременных независимых бросаний г монет. Пусть S обозначает рекуррентное событие, состоящее в том, что все г монет находятся в одной и той же фазе (т. е. что суммар- ные числа выпадения гербов одинаковы для всех г монет). Веро- ятность наступления этого события при n-м испытании есть О-rJMY I (П\Г . . MY1 /Л 104 ип = 2 [\0/ + (1) + • + \п/ ]• <4Л2> В правой части мы узнаем члены биномиального распределения с р=1/2; применяя к последнему нормальное приближение, легко заключаем1), что при любом фиксированном г и п —> оо ип ~ [2/(лп)]'/2 2е-2"'2/” (4.13) х) Нормальноеприближение2-п(?)— [ — ) е 2<-к~п/2У‘/п справедливо, \ К J \ ТСН у когда п—>оо и (k—п/2)3/п2—>0 (см. гл. VII, 2). Из этого приближения следует, например, что kl (k-n/2)i2 < n7 /• р» Для доказательства (4.13) остается воспользоваться соотношением (4.14) и соотношениями V 2-™frtV< п2~'п( п V— ti(—Y12 е-2"1/в 2u \k)< U/2+[n’/12]/ \лп) (Л-П/2)« > П 7 2|/ -L у, е-ъпг!п < 2 J е-*’/2 Лс —► 0, п—* со. Л р2 > п1 - 00 — Прим перев.
§5. События с запаздыванием. Общая предельная теорема 331 (суммирование проводится по всем целым числам от —п/2 до п/2). Но по определению интеграла 00 2/77^3 J е-^/г dx=|/’2n, (4.14) / —00 и отсюда мы выводим, что и„-(1/И7)[2/(лп)](-^. (4.15) Следовательно, 2 й» расходится, когда г^З, но сходится, когда г >4. Значит, S возвратно при г^З и невозвратно при г ^4. Поскольку при г^З среднее время возвращения беско- нечно. (Ср. с задачами 2 и 3.) § 5. РЕКУРРЕНТНЫЕ СОБЫТИЯ С ЗАПАЗДЫВАНИЕМ, ОБЩАЯ ПРЕДЕЛЬНАЯ ТЕОРЕМА Введем теперь незначительное обобщение понятия рекуррент- ного события, столь очевидное, что о нем не стоило бы и упоминать, если бы не было удобно иметь для него специальный термин и пере- чень основных уравнений. Возможно, наилучшее неформальное описание рекуррентных со- бытий с запаздыванием получится, если сказать, что они относятся к испытаниям, в которых мы «пропускаем начало и начинаем с сере- дины». Время ожидания первого появления S имеет распределение {Ьп }, отличающееся от распределения {fn} времени между последо- вательными появлениями S. Теория переносится на этот случай без изменений, за исключением того, что испытания, следующие за каждым появлением S, являются точными вероятностными ко- пиями одной и той же последовательности случайных величин, которая не совпадает с исходной последовательностью. Поскольку ситуация столь проста, мы воздержимся от формаль- ностей и согласимся говорить о рекуррентном событии S с запазды- ванием, когда определение рекуррентных событий применимо лишь при игнорировании испытаний, предшествующих первому появле- нию подразумевается, что время ожидания первого появления S есть случайная величина, не зависящая от последующих времен возвращения, но ее распределение {Ьп} может отличаться от об- щего распределения {fn} времен возвращения. Обозначим через vn вероятность появления S при n-м испыта- нии. При выводе выражения для vn мы рассуждаем следующим образом. Допустим, что происходит при испытании с номером k<n. По отношению к последующим испытаниям S оказывается обычным рекуррентным событием, и поэтому (условная) вероят- ность повторного появления S при n-м испытании равна un~k. Далее, если S происходит при n-м испытании, то либо это первое его появление, либо первое появление имело место при k-м испы-
332 Гл. XIII. Рекуррентные события. Теория восстановления тании с некоторым k<ji. Суммируя по всем вариантам, получаем t’n = &n+&n-:i«i+fcn-&u2+- • (5.1) Таким образом, у нас есть возможность найти явное выражение для vn. (Другое доказательство приводится в примере 10, а).) Соот- ношение (5.1) можно переписать в компактном виде уравнения свертки: ЮНМ* {«п}- (5.2) Это означает, что соответствующие производящие функции удов- летворяют тождеству V(s)=B(s)U(s)==B(s)/(l— F(s)). (5.3) Пример, а) В испытаниях Бернулли, рассмотренных в примерах 4, а)—4, г), событие Sn = l является рекуррентным событием с за- паздыванием. Время ожидания его первого появления имеет произ- водящую функцию Ф, заданную формулой (4.10); промежутки вре- мени между последовательными появлениями события {Sn = l} име- ют производящую функцию F возвращений в начало (см. (4.4)). Таким образом, в этом случае У=Ф/(1—F). Легко показать, что асимптотическое поведение вероятностей vn по существу такое же, как у ип. Во избежание тривиальных ого- ворок предположим, что S непериодично х). Согласно § 3, в этом случае ип стремится к конечному пределу и 2^п<°° тогда и только тогда, когда S невозвратно. Теорема 1. Если ип—>со, то vn—*bto, где b = ^bk = B (\). (5.4) Если ^ип = и< оо, то ^vn = bu. (5.5) В частности, ип->ц-1, если S возвратно. Доказательство. Положим . Поскольку ип<1, из (5.1) следует, что при n>k boun+. . .+bkun_k^vn^bl)un+. . -+bkun_k+rk. (5.6) Выберем k столь большим, чтобы rk<Z&- Тогда для достаточно боль- ших п левая часть (5.6) больше Ьа>—2е, а правая часть меньше йсо+2е. Тем самым (5.4) доказано. Утверждение (5.5) можно до- казывать, либо суммируя (5.1) по п, либо полагая s=l в (5.3). Мы переходим теперь к предельной теореме, имеющей широкую область приложений. Допустим, что некоторая система имеет счет- х) Периодические рекуррентные события рассматриваются в теореме 2 § 10. Другое доказательство теоремы 1 приводится в примере 10, а).
§ 5. События с запаздыванием. Общая предельная теорема 333 ное множество возможных состояний Ео, Elf. . . и что переходы из одного состояния в другое зависят от какого-то случайного меха- низма. Например, в простейшей модели очереди (пример 1,з)} мы говорим, что система находится в состоянии Ek, если в очереди находится k покупателей (вместе с покупателем, которого обслужи- вают). Чтобы задать состояние системы, включающей семнадцать продавцов, может потребоваться восемнадцать чисел, однако все мыслимые состояния могут быть упорядочены в последователь- ность Ео, Ei,. . .. Нам не нужно думать о том, как это сделать наи- лучшим образом, потому что следующая теорема не дает конкрет- ных методов оценки вероятностей. Она является чистой теоремой существования, показывающей, что стационарный режим сущест- вует в большинстве встречающихся на практике случаев. Это пред- ставляет теоретический интерес, но имеет также и практическое значение, поскольку, как правило, математическое исследование стационарного режима значительно проще, чем изучение зависящего от времени процесса. Мы предполагаем, что для п=1, 2, ... и для любого набора (ri, . • ., гп) определена вероятность того, что система в моменты времени 0, 1, . . ., п—1 проходит через состояния £\,. . .,ЕГп. Мы не делаем никаких предположений ни о взаимной зависимости этих событий, ни о вероятностях переходов из одного состояния в другое. Для простоты мы рассмотрим только вероятности р(% того, что в момент времени п система находится в состоянии Ег. (Будет ясно, как теорема обобщается на пары состояний, тройки состояний и т. д.) Основное предположение состоит в том, что существует связанное с нашим процессом рекуррентное собы- тие^. Например, в модели очереди (пример 1, з)) таким рекуррент- ным событием является попадание в состояние Ео. Если бы в этом случае <§ было невозвратным, то была бы положительной вероят- ность того, что очередь никогда не окончится. Это значило бы, что раньше или позже мы столкнулись бы с бесконечной очередью, т. е. с очередью неограниченно возрастающего размера. Наша предель- ная теорема показывает, что такие системы на практике невозмож- ны. Пример с очередью должен был пояснить роль условия воз- вратности события <£. (Условие непериодичности вводится только для того, чтобы избежать тривиальных оговорок.) Теорема 2. Допустим, что существует связанное с нашим про- цессом непериодическое возвратное рекуррентное событие S (воз- можно, с запаздыванием). Тогда при п-^оо Р(пп-^РЮ, (5-7) причем 2/^=1, (5.8)
334 Гл, XIII. Рекуррентные события. Теория восстановления если среднее время возвращения р конечно, и рг=0 в противном слу- чае х). Доказательство. Каждый раз, когда происходит <£, процесс начинается заново. Поэтому существует корректно определенная условная вероятность того, что если S происходит в некото- рый момент времени, то состояние Ег появляется через п единиц времени, и это происходит до следующего наступления S (здесь п = 0, 1,...). Для рекуррентных событий с запаздыванием нам потребуется также вероятность ур того, что Ег появляется в мо- мент времени п до первого наступления $. (Очевидно, y^r) = gnr). если S — рекуррентное событие без запаздывания.) Классифицируем теперь способы появления Ег в момент п по моментам последнего появления <§ до момента п. Прежде всего, £ может еще не произойти. Вероятность этого равна у%>. В про- тивном случае существует такое k и, что <§ происходит в момент времени k и не происходит между k и п. Вероятность этого равна vkSn-k- Суммируя по всем этим взаимно исключающим случаям, находим Рп’ = Tn1 + + gn-zVt 4- • •• 4- №>„ (5.9) (Мы пользуемся здесь обозначениями теоремы 1. Для событий с запаздыванием уо = 0, для событий без запаздывания vk = uk и = Соотношение (5.9) аналогично (5.1) и отличается лишь нали- чием члена у(пГ) в правой части. Очевидно, эта величина не больше вероятности того, что S не произойдет до момента п, и, поскольку S возвратно, у(пг)—>0 при п—>оо. К остальным слагаемым мы можем применить теорему 1, заменив uk на vk и bk на g{kr). Так как S возвратно, то ип —>р“х, и поэтому 00 — (5.Ю) fe = 0 Это доказывает существование пределов (5.7). Чтобы доказать, что их сумма равна 1, заметим, что в любой момент времени система находится в каком-то состоянии, и, значит, ^gX = gn (5.П) г=0 есть вероятность того, что время возвращения не меньше п, т. е. gn-fn + i п + 1 4- • • • *) Последнее утверждение теоремы, вообще говоря, неверно (кстати, автор его и не доказывает). Контрпримером является последовательность испыта- ний Бернулли с р = <7= 1/2 (процесс с двумя состояниями) и рекуррентное событие состоящее в равенстве суммарных чисел успехов и неудач (см. пример 4, б)).— Прим, перев.
§ 6. Число появлений $ 335 Таким образом, SP<', = H-Iig„ = l (5.12) r=0 и=0 в силу формулы (1.8) гл. XI. (Предельную теорему из примера 10, б) можно рассматривать как частный случай только что доказанной теоремы.) § 6. ЧИСЛО ПОЯВЛЕНИЙ $ До сих пор мы изучали свойства рекуррентного события относящиеся к промежуткам времени между его последовательны- ми появлениями. Часто оказывается предпочтительнее считать за- данным число п испытаний, а в качестве основной случайной ве- личины выбрать число Nn появлений S в первых п испытаниях. Мы исследуем теперь асимптотическое поведение распределения N* при больших п. Для простоты будем считать, что S — рекуррент- ное событие без запаздывания. Пусть, как и в (2.8), Т(г) обозначает число испытаний до г-го появления S, включая это последнее испытание. Распределения вероятностей Т(г) и N„ связаны очевидным тождеством P|N„>r} = P{T<'><4. (6.1) Начнем с простого случая, когда S возвратно и распределение {fn } его времени возвращения имеет конечные среднее ц и диспер- сию о?. Так как Т(г) является суммой г независимых величин, то, согласно центральной предельной теореме из гл. Х,1, для любого фиксированного х при г->оо Р {(Т(г) —ф)/(аК7) < х} (х), (6.2) где SR(x)—функция нормального распределения. Устремим теперь п и г к бесконечности так, чтобы (п—гц)/(о/7) —► х\ (6.3) тогда из (6.1) и (6.2) будет следовать, что (6.4) Чтобы записать это соотношение в более привычном виде, мы введем нормированную случайную величину N; = (|iNn—п^й/^п). (6.5) Неравенство эквивалентно неравенству N; > [(Гр.—п)/(о/7ЖфМ = — хУщ/п. (6.6)
336 Гл. XIII. Рекуррентные события. Теория восстановления Разделив (6.3) на г, получим, что п/г —и поэтому правая часть (6.6) стремится к —х. Так как 91 (—х) = 1—9f(x), то P{N*> —91(х), или P{N*<— 4 — 1— 91(х), (6.7) и нами доказана следующая теорема.. Теорема. (Нормальное приближение.) Если рекуррентное собы- тие S возвратно и его время возвращения имеет конечные среднее |х и дисперсию о2, то число Т(г) испытаний до г-го появления S и число Nn появлений S в первых п испытаниях имеют асимпто- тически нормальные распределения, указанные в (6.2) и (6.7). Заметим, что в (6.7) центральная предельная теорема применя- ется к последовательности зависимых случайных величин N„. По- лезность нашей теоремы будет продемонстрирована в следующем параграфе на примере применений к сериям успехов. Соотношения (6.7) делают правдоподобными формулы Е (N„) - п/^ Var (N„) - no2/p3, (6.8) где символ ~ означает, что отношение левой части к правой стре- мится к 1. Чтобы доказать (6.8), мы заметим, что N„ есть сумма п таких (зависимых) случайных величин Yfe, что Yft равна единице или нулю в зависимости от того, происходит или не происходит <§ в fe-м испытании. Тогда E(Yfe)=wft и E(N„) = m14-u24-...(6.9) Поскольку отсюда следует первое соотношение (6.8). Второе доказывается аналогичными рассуждениями (см. задачу 20). К сожалению, удивительно много времен возвращения, встре- чающихся в различных случайных процессах и в приложениях, име- ют бесконечное математическое ожидание. В таких случаях нор- мальное приближение заменяется более общими предельными теоре- мами совершенно другого характера х) и случайные флуктуации обладают неожиданными свойствами. Например, интуиция подска- зывает, что E(N„) должно расти линейно по п, «поскольку в сред- нем при удвоении числа испытаний число появлений S тоже дол- жно удвоиться». Однако это не так. Если математическое ожидание времени возвращения бесконечно, то цп-И), и поэтому E(Nn)/n->0 в силу (6.9). Это означает, что в длинной последовательности испы- таний появления S становятся все реже и реже, и это возможно только за счет того, что некоторые времена возвращения фантас- тически велики. Следующие два примера показывают, насколько резко может быть выражено это явление. Примеры, а) Если S—возвращение в начало в игре с броса- нием монеты (пример 4, б) с р=1/2), то и2п~1/|/"лп и (6.9) яв- Feller We> Fluctuation theory of recurrent events, Trans. Amer. Math. Soc., 67 (1949), 98—119.
$ 7. Приложения к теории серий успехов 337 ляется приближением к интегралу от 1/1/"зтх; отсюда следует, что Е (N2„) ~ 2]/" п/я. Поэтому среднее время возвращения в интервале от 0 до п растет примерно как К п. Любопытные следствия этого подробно обсуждались в гл. III. б) Возвращаясь к примеру 4, ж), рассмотрим повторяющиеся бросания г=3 монет и обозначим через S событие, состоящее в том, что все три монеты находятся в одной и той же фазе. Мы виде- ли, что S — возвратное рекуррентное событие и что г/п~2/(КЗлл). Поэтому E(NJ растет примерно как logn, и, значит, среднее времен возвращения до момента п имеет фантастическую величину порядка n/logn. § 7*). ПРИЛОЖЕНИЯ К ТЕОРИИ СЕРИЙ УСПЕХОВ В дальнейшем г будет обозначать фиксированное положительное целое число, a S — появление серии из г успехов в последователь- ности испытаний Бернулли. Важно, чтобы длина серии определя- лась так же, как в примере 1, д), поскольку в противном случае серии не являются рекуррентными событиями и вычисления ус- ложняются. Как в (2.1) и (2.2), ип —это вероятность появления S при п~м испытании, a fn — вероятность того, что первая серия длиной г появляется при n-м испытании. Вероятность того, что г испытаний с номерами п, п—1, п—2,. . . . . ., п—г+1 закончатся успехами, очевидно, равна рг. Тогда S происходит при одном из этих г испытаний; вероятность того, что S произойдет при испытании с номером п—k (&=0, 1, . . ., г—1), а следующие k испытаний приведут к k успехам, равна un_kpk. Поскольку эти г возможностей исключают друг друга, мы полу- чаем рекуррентное соотношение * * * х) «п+«п-1р+- • .+un_r+1pr~1=pr, (7.1) справедливое при tC^r. Очевидно, «1=ы2=. . .=ur_j=0, «о=1. (7.2) Умножая (7.1) на sn и суммируя по п — r, г 4-1, г 4- 2, ..., полу- чаем в левой части {U (s)-l}(l+ps+p^+... +pr-LS'-i), (7.3) а в правой pr (sr + >г+1+ ...). Эти два ряда являются геометри- ческими, и мы находим, что {U (s)-l}(l-(psn/(l-ps) = pV/(l-s), (7.4) *) Этот параграф посвящен специальным вопросам и может быть опущен при первом чтении. х) Классический подход состоит в выводе рекуррентного соотношения для Этот метод сложнее и не применим, например, к сериям произвольного вида или к событиям УУННУУ, к которым наш метод применим без изменений (ср. а примером 8, в)).
338 Гл. XIII. Рекуррентные события. Теория восстановления или U (s) = (1 — s + qprsr+1)/[(l —s) (1 — p's')]- (7.5) Используя (3.2), находим теперь производящую функцию времени возвращения*. F ___________ п 6) 1— s+f/p's'+i 1— qs (l+ps+...+p'-V-i)’ Равенство F(l) = l показывает, что в удлиняющейся последователь- ности испытаний число серий любой длины с вероятностью 1 уве- личивается неограниченно. Среднее время возвращения р можно было бы получить непосредственно из (7.1), поскольку мы знаем, что wn->p“x. Так как нам потребуется и дисперсия, удобнее вычис- лить производные F(s). Лучше всего при этом дифференцировать, предварительно умножив обе части (7.6) на знаменатель. Неслож- ные вычисления показывают, что среднее и дисперсия времен воз- вращения для серий длиной г равны а2 = _!___ь+1-JL И ЯРГ ’ (qpr)2 qpr q2 (7.7) соответственно. По теореме предыдущего параграфа при больших п число N„ серий длиной г в п испытаниях имеет распределение, близкое к нормальному, т. е. при фиксированных а < 0 вероят- ность того, что и/р + ао |/ n/р3 < N п < и/р 4- Ра К л/р3, (7.8) стремится к (Р)—9? (а). Впервые это было доказано Мизесом при помощи весьма утомительных вычислений. В табл. 1 приведено несколько типичных значений математических ожиданий времен возвращения. Таблица 1 Математические ожидания времен возвращения для серий успехов, когда производится по одному испытанию в секунду Длина серии Г р = 0,6 р=0,5 (монета) р=1/6 (кость) 5 30,7 с 1 МИН 2,6 ч 10 6,9 мин 34,1 мин 28,0 мес 15 1,5 ч 18,2 ч 18 098 лет 20 19 ч 24,3 сут 140,7 млн. лет Метод разложения на простые дроби из гл. XI, 4 позволяет получить превосходные приближенные формулы. Второе представ-
§ 7. Приложения к теории серий успехов 339 ление в (7.6) показывает, что знаменатель имеет единственный по- ложительный корень s=x. Для любого действительного или комп- лексного числа sc 1s | имеем |<?s(l +ps+ ... +pr-1s',-l)|<<7x(l + px-b ... 4-р'-1х'-1)= 1, (7.9) где знак равенства возможен только тогда, когда аргументы всех слагаемых в левой части одинаковы, т. е. когда s=x. Следовательно, х по абсолютной величине меньше любого другого корня знамена- теля в (7.6). Поэтому мы можем применить формулы (4.5) и (4.9) гл. XI, положив в них Si=x, U (s)=prsr (1—ps) и 7(s)=l—s+qprX Xsr+1. Используя равенство V(х)=0, находим f ~ fozzP 0 — Р*) 1 zy до. Вероятность отсутствия серий в п испытаниях есть qn = fn+i + + fn+z + fn+3+ • • • > и» суммируя геометрическую прогрессию в (7.10), получаем (/*+1—rx) q хп+1' * ’ ' Таким образом, мы доказали, что вероятность отсутствия се- рий успехов длиной г в п испытаниях удовлетворяет соотношению (7.11). Табл. 2 показывает, что правая часть (7.11) дает удивитель- но хорошие приближения даже для очень малых п, и точность ап- проксимации быстро увеличивается с ростом п. Это иллюстрирует эффективность метода производящих функций и разложения на простые дроби. Таблица 2 Вероятность отсутствия серий успехов длиной г = 2 в п испытаниях с р—\/2 п qn точное qn по (7.1 1) Погрешность 2 0,75 0,76631 0,0163 3 0,625 0,61996 0,0050 4 0,500 0,50156 0,0016 5 0,40625 0,40577 0,0005 Численные оценки. Имея в виду интересы читателя-прикладника, мы покажем, что вычисления, связанные с разложением на простейшие дроби, часто оказыва- ются проще, чем может показаться с первого взгляда, и что можно получить хо- рошие оценки для погрешности. В связи с асимптотической формулой (7.11) возникают две задачи: во-первых, оценить вклад г—1 отброшенных корней и, во-вторых, получить оценки для глав- ного корня к. Первое представление в (7.6) показывает, что все корни знаменателя функции ^(s) удовлетворяют уравнению s=l + ^s'-+i> (7,12)
340 Гл. XIII. Рекуррентные события. Теория восстановления однако (7.12) имеет посторонний корень s — p^1. При положительных s гра- фик функции f (s) = 1 -]-qprsr+1 выпукл вниз; он пересекает биссектрису y = s в х и в р-1, а между х и р"1 лежит ниже биссектрисы. Далее, /' (р-х) = (г+ 1) q. Если эта величина больше 1, то график f (s) пересекает биссектрису при s = p'~1 снизу, и, следовательно, р-1 > х. Мы будем предполагать для опре- деленности, что (г+1)^>1; (7.13) в этом случае х<р“х и/($)<$ при х<$<р-х. Значит, для всех таких комплексных чисел s, что x<|s|<p~x, мы имеем |/(s)|<^(]s|)<|s|, так что нули не могут ле- жать в кольце x<|s]<p~x. Поскольку х выбирался как корень, наименьший по абсолютной величине, это означает, что I sk | р"1, когда sk Ф х. (7.14) Дифференцирование (7.12) показывает теперь, что все корни являются простыми. Вклад в qn каждого корня аналогичен вкладу (7.11) главного корня х, и поэтому г—1 членов, не учтенных в (7.11), имеют вид Л 1 k rsk-(r+\) qsn (7.15) Нам потребуется оценка сверху для первой дроби в правой части. Чтобы по- лучить ее, заметим, что для фиксированного s > р”1 > (r-J- 1) г“х I ^seiQ — * I < Ps “Н I rse™—(r+1) I< "+'+1 ’ (7-16) действительно, величина в левой части, очевидно, принимает максимальное и минимальное значения при 0=0 и 0=л, и непосредственная подстановка показы- вает, что 0=0 соответствует минимуму, а 0=л — максимуму. Тогда в силу (7.13) и (7.14) 9пл + 1 9пп + 2 (7Л7) Мы приходим к выводу, что погрешность в (7.11), возникшая из-за отбрасывания г — 1 корней, отличных от х, по абсолютной величине меньше чем 2(r~\)p^l[rq(\+p)]. (7.18) Корень х легко вычислить при помощи (7.12) методом последовательных приближений, полагая х0=1 и *v+i =/(*v)« Последовательность сходится к х монотонно, и каждый ее член дает оценку снизу для х, а любое значе- ние s, для которого s> f(s), дает оценку сверху. Нетрудно проверить, что х=1+^ + (г+1)(^г)2+... . (7.19) § 8*). СОБЫТИЯ БОЛЕЕ ОБЩЕГО ВИДА Наш метод применим к более общим задачам, которые ранее казались значительно сложнее задач об обычных сериях. Примеры, а) Серии двух типов. Пусть <§ означает событие «либо серия успехов длины г, либо серия неудач длины р» (см. при- мер 1, е)). Мы имеем дело с двумя рекуррентными событиями и где — «серия успехов длины г», $2—«серия неудач дли- ны р», a S—событие «либо либо <§2». Событию соответ- *) Этот параграф посвящен специальным вопросам и может быть опущен при первом чтении,
§ 8. События более общего вида 341 ствует производящая функция (7.5), которая будет теперь обозна- чаться U г (s). Соответствующая производящая функция U2 (s) для <§2 получается из (7.5) перестановкой р и q и заменой г на р. Вероятность ип того, что событие <§ произойдет при n-м испыта- нии, есть сумма соответствующих вероятностей для и <9 2, если- исключить случай ц0=1. Следовательно, (/(s) = t/1(s) + ^2(s)-l. (8.1> Производящая функция F (s) времени возвращения для <§ есть снова F(s)=l — (7-1(s), или г / х (1—(1—<rsP)+(l—qsJffPsPQ—p's') ,g ' 7 1—s-\-qprsr + 1-\-pqP sP + 1— prq&sr + v ‘ V • / Математическое ожидание времени возвращения находится диффе- ренцированием: И = (1 — (1 — 7р)/(7Рг + W ’—Р V) • (8 • 3> При р —> оо это выражение стремится к математическому ожида- нию времени возвращения для серии успехов, которое вычисля- ется по формуле (7.7). б) В гл. VIII, 1 мы нашли вероятность х того, что серия успе- хов длины г появится раньше серии неудач длины р. Определим рекуррентные события (§г и <§2 так же, как в примере а). Пусть хп—вероятность того, что впервые происходит при n-м испы- тании и до этого ни разу не происходило <£2, a fn—вероятность того, что впервые происходит при п-м испытании (без допол- нительных условий на <£2). Определим уп и gn так же, как хп и fn соответственно, но с перестановкой и <£2. Производящую функцию для fn дает формула (7.6), a G(s) по- лучается при перестановке р и q и замене г на р. Для хп и уп мы имеем очевидные рекуррентные соотношения ХП = /п (У1/ Z2-1 ^/2/72-2 4“ ’ • • “Ь Уп-lf 1)» /g Уп = 8п—(^-1+^-2 + • • • 1 7 Они имеют вид сверток, и поэтому для соответствующих произво- дящих функций мы имеем X(s)= F(s) — Y (s) F (s), fir. Y(s) = G(s)—X(s)G(s). ' J Из этих двух линейных уравнений получаем = (8.6) v 7 1 — F (s) G (s) ’ 47 1 —F (s) G (s) v 7 Выражения для xn и yn можно найти, снова пользуясь методом разложения на простейшие дроби. При $ = 1 имеем X (1) = ^хп = х9.
342 Гл. XIII. Рекуррентные события. Теория восстановления т. е. вероятности появления Si раньше S2- Как числитель, так и знаменатель обращаются в нуль, и значение X (1) вычисляется по правилу Лопиталя дифференцированием числителя и знамена- теля: X (1) = G' (1)/(F' (1) + G' (1)). Используя равенства F' (1) = = (1 —Pr)l(qpr) и G' (1) = (1 —<7P)/(WP) (см. 7.7)), мы получаем X (1) в том же виде, что и в формуле (1.3) гл. VIII. в) Рассмотрим рекуррентное событие УУННУУ. Повторяя рас- суждения § 7, легко находим, что PV = «n + PVMn-4 + PV«n-5- (8-7) Поскольку известно, что ип —мы получаем для среднего времени возвращения равенство |ы = р~49“2 -|- р~2 + /Г1, При p=q=* = 1/2 находим, что р = 70, тогда как среднее время возвращения для серии успехов длины 6 равно 126. Это показывает, что вопреки ожиданиям при бросаниях монеты имеется существенное различие между сериями гербов и другими наборами той же длины. § 9. ОТСУТСТВИЕ ПАМЯТИ ДЛЯ ВРЕМЕН ОЖИДАНИЯ С ГЕОМЕТРИЧЕСКИМ РАСПРЕДЕЛЕНИЕМ Геометрическое распределение времени ожидания обладает ин- тересным и важным свойством, отличающим его от других распре- делений. Рассмотрим последовательность испытаний Бернулли и обозначим через Т число испытаний до первого успеха (включая это испытание). Тогда Р{Т>й}=(Д Пусть нам известно, что в первых т испытаниях успехов не было; время ожидания от т-й неудачи до первого успеха имеет то же самое распределение {qk} и не зависит от числа предшествовавших неудач. Иначе говоря, вероятность того, что ожидание успеха продлится еще по крайней мере k единиц времени, всегда равно исходной вероятности того, что полное время ожидания превосходит k. Если время жизни атома или срок службы элемента устройства имеет геометрическое распределение, то старение отсутствует: в любой момент своей жизни атом имеет одну и ту же вероятность распада при следующем испытании. Радиоактивные атомы на са- мом деле обладают этим свойством (однако в случае непрерывного времени роль геометрического распределения играет показатель- ное). Обратно, если известно, что некоторое явление характеризуется полным отсутствием памяти или старения, то распределение веро- ятностей его длительности должно быть геометрическим или показа- тельным. Типичным примером является хорошо известный вид телефонных разговоров, часто рассматриваемый как модель бессвяз- ности и полной зависимости от сиюминутных импульсов: оконча- ние разговора — это мгновенное случайное событие, не связанное € предшествующей беседой. Напротив, если мы знаем, что в послед- ние пять минут трамвая не было, то это увеличивает нашу надеж-
§10. Теория восстановления 343 ду на его скорое появление. При бросании монеты вероятность того, что после второго испытания суммарные числа успехов и не- удач будут равны, составляет 1/2. Однако если эти числа различны, то вероятность их совпадения после двух дополнительных испыта- ний равна 1/4. Это примеры последействия. Для строгой формулировки утверждения предположим, что вре- мя ожидания Т принимает значения 0, 1, 2, ... с вероятностями Ро, Pi, р2>. . •• Пусть распределение Т обладает следующим свой- ством: условная вероятность окончания времени ожидания при k-м испытании (при условии, что оно не окончилось ранее) равна pQ (вероятности окончания при первом испытании). Мы утверждаем, что тогда pk= (1—роРро, так что Т имеет геометрическое распре- деление. Для доказательства снова введем «хвосты» ?Ь=Рй + 1+Рй + 2+Р/г + з + - • .=Р{Т>^}. Наше условие состоит в том, что V>k—1, а его вероятность есть- ^л-1- Условная вероятность события T=Z? равна поэтому Рь/^-х, и по предположению при любом k^\ Рк!Як-1=^Ро- (9J) Так как Р^-Як-х—то (9-1) приводится к виду PkKlk-i^—Po- (92) Поскольку = Pi + р2 + • • • =1 —Ро» отсюда следует, что qk = = (1— Ро)Л+1» и поэтому % = (1—Ро)ЛРо, как и ут- верждалось. В теории случайных процессов описанное выше отсутствие па- мяти связывается с марковским свойством; мы вернемся к этому вопросу в гл. XV, 13. § 10. ТЕОРИЯ ВОССТАНОВЛЕНИЯ Область применения уравнений свертки, которые служат ос- новой теории рекуррентных событий, значительно шире, чем это< могло показаться при чтении предыдущих параграфов. Поэтому мы сформулируем заново и в более общем виде аналитическую часть полученных в них результатов и опишем как типичные вероятност- ные методы теории восстановления, так и их применения к изу- чению разнообразных ситуаций. Мы начинаем с двух произвольных *) последовательностей дей- ствительных чисел Л, /2,. . . и b0, bt,. . .. Новую последователь- J) Мы полагаем f0 — Q. Из (10.1) ясно, что случай 0 < /0 < 1 приводит лишь к изменению обозначений, т. е. к замене h на /^/(1 — f0) и на,
344 Гл. XIII, Рекуррентные события. Теория восстановления ность v0, Vi,. . . можно задать уравнениями свертки vn=bn+flvn_1+f2vn_i+. . .+fnv9. (10.1) Они последовательно определяют v0, vu v2,. . и поэтому vn опре- деляется однозначно в любом случае. Мы рассматриваем, однако, только последовательности, удовлетворяющие условиям 2) f=iz„<oo; b„^0, &=ib„<oo. (10.2) n=I n=0 В этом случае vn неотрицательны и соответствующие производящие функции должны удовлетворять равенству V(s)=B (s)/(l—F (s)). (10.3) Производящие функции F и В сходятся по меньшей мере при 0^ <s<l, и поэтому (10.3) определяет степенной ряд, который сходит- ся, если F(s9<l. Соотношения (10.1) и (10.3) полностью эквива- лентны. В § 3 мы рассматривали частный случай, когда B(s) = l (уп=ип при любом п). В § 5 рассмотрена общая ситуация при ус- ловии /^1. Чтобы обеспечить возможность применения к теории популяций, мы теперь будем допускать, что £>1; оказывается, этот случай легко сводится к стандартному случаю f= 1. Мы будем говорить, что последовательность {fn} имеет период Х>1, если fn=Q, когда п не делится на %, и К — максимальное це- лое число с таким свойством. Это эквивалентно следующему утвер- ждению: F (s)=F1(sK) — степенной ряд по 5х, но не по sn при любом г>1. Снова положим (10.4) и будем считать, что р"* 1 нужно считать равным нулю, если р=оо. Теорема 1. (Теорема восстановления.) Пусть выполняются ус- ловия (10.2) и {fn} непериодична. Тогда (i) если /<1, то vn->0 и ZV'-b/O-f)-, (10.5) п=0 (ii) если f=i, то Vn-^bp-1; (10.6) (Hi) если f>l, то существует единственный положительный корень уравнения F(g) = l и lnvn В (MF’- ©). (10.7) L) Неотрицательность существенна, а условие сходимости двух рядов введено только для удобства. Никаких общих выводов нельзя сделать, если Ь=оо и f = оо. Соотношение (10.7) остается справедливым при /=оо (за ис- ключением того, что в этом случае F' (§) может быть равно бесконечности) и оказывается бессмысленным, если 6=оо и F- (|) = оо,
§ 10. Теория восстановления 345 Очевидно, £<1, и поэтому производная F' (|) конечна; (10.7) показывает, что последовательность асимптотически ведет себя как геометрическая прогрессия со знаменателем > 1. Доказательство. Утверждения (i) и (ii) были доказаны в § 5. Для доказательства (iii) достаточно применить (ii) к последова- тельностям {fnln}, рЛ"} и с производящими функциями F (gs), B(^s) и V (gs) соответственно. Мы исключили периодические последовательности {fn}, поскольку они не представляют особого интереса. Фактически они не дают ничего нового. В самом деле, если {Ьп} и {fn} имеют один и тот же период X, то В (s) и F (s)—степенные ряды по и поэтому то же верно для V ($). К после- довательностям {/лл}, рлл} и с производящими функциями F (slyZ^), В (?/*) и V применима теорема 1. В случае /7(1) = 1 отсюда следует, что vnx—>6А/р<. Далее, произвольный степенной ряд В можно представить, в виде линейной комбинации А степенных рядов Bj, содержащих только степени s^: В (s) = B0 (s) + sBi (s)+ ... (s). (10.8) Подстановка этого разложения в (10.3) и применение только что сформули- рованного утверждения показывают, что справедлива следующая теорема. Теорема 2. Пусть выполняются условия (10.2) и {/„} имеет период А > 1. Тогда (i) если f <1, то справедливо (10.5); (ii) если /=1, то для j = 0, 1, ..., А—1 при п—> оо UnK+j—1)/р; (10.9) (iii) если f > 1, то для j — 0, 1, ..., А— 1 при п —> оо ^unK+j АВ, (g)/(g|x). (10.10) С помощью рассуждений, которые аналогичны проведенным для рекуррентных событий, можно показать, что некоторые вероятнос- ти, связанные с самыми разнообразными случайными процессами, удовлетворяют уравнению типа свертки (10.1). При этом многие важные предельные теоремы оказываются простыми следствиями теоремы 1. Такой подход, известный под названием теории восста- новления х), теперь повсеместно вытеснил громоздкие старые методы. Полностью его преимущества раскрываются при применении к про- цессам с непрерывным временем, тем не менее первые два примера могут служить иллюстрацией. Другие примеры приводятся в за- дачах 8 и 9. Применение теоремы 1 к невероятностным предельным теоремам содержится в примере в). Последние два примера свя- заны с практическими приложениями. Примеры, а) Рекуррентные события с запаздыванием. Выведем новым способом утверждение § 5 о рекуррентном событии <§ с запаздыванием в случае, когда — распределение времени х) В оригинале renewal arguments. Многие авторы используют также термин «метод введения регенерирующего события».— Прим, перев.
346 Гл. XIII. Рекуррентные события. Теория восстановления возвращения, а — распределение момента первого появления £. Пусть vn означает вероятность того, что S происходит при п-м испытании. Покажем, что выполняется (10.1). Существуют две возможности появления S при n-м испытании. Появление S может быть первым, и вероятность этого равна Ьп. В противном случае существует последнее появление (§ до n-го испытания, и поэтому существует такое число j (1 j < ri), что S происходило при /-м испытании, а в следующий раз—при n-м. Вероятность этого равна Указанные возможности исключают друг друга, и, значит, vn = bn + u1f„_1 + vj„_2+ ... +vn_1fi, (10.11) что совпадает с (10.1). Значит, производящая функция V вычисля- ется по формуле (10.3), которая согласуется с результатами §5. (Хотя результаты совпадают по форме, ход рассуждений был раз- ным: в § 5 перечисление происходило в соответствии с первым по- явлением £, а сейчас использовалось последнее появление. Обе процедуры применяются и в других задачах и иногда приводят к формально различным уравнениям.) б) Вероятности попадания. Рассмотрим последовательность ис- пытаний с обычным (без запаздывания) возвратным рекуррентным событием <§. Пусть v^O — целое число. Предположим, что мы начинаем наблюдать процесс только после v-ro испытания и что нас интересует время до следующего появления Более формаль- но, для г=1, 2, . . . определим wv(r) как вероятность того, что пер- вое появление S после v-eo испытания происходит при (v+r)-M ис- пытании. Таким образом, wQ(r)=fr и ^v(0)=0. (Величины wv(r) называются вероятностями попадания в соответствии с их интер- претацией в теории случайных блужданий. При других обстоятель- ствах естественнее говорить о распределении остаточного времени ожидания, начинающегося с v-ro испытания. Ср. с примером гл. XV, 2, л).) Чтобы найти эти вероятности, мы используем стандартный метод теории восстановления следующим образом. Событие S может про- изойти в самый первый раз при (v+r)-M испытании. Вероятность этого равна fv+r. В противном случае существует такое число k^y, что S происходит впервые при k-м испытании. Поведение процесса после £-го испытания является вероятностной копией по- ведения всего процесса, но v-e испытание становится теперь (у— —k)-M. Вероятность нашего события равна поэтому fkwv^k{r), и, значит, при любом г>0 v wv (г)—fv+r-{- 2 fkWv-k(r). (10.12) k= 1 Это уравнение имеет стандартный вид (10.1) с bn=fn+r. Нас ин- тересует не производящая функция, а асимптотическое поведение
§ 10. Теория восстановления 347" вероятностей попадания при очень больших v. Найти его позво- ляет теорема 1. Положим • (10.13) и напомним (см. формулу (1.8) гл. XI), что математическое ожида- ние времени возвращения удовлетворяет равенству p=Pi+p2+. . . . (10.14) Если S непериодично, то из теоремы 1 мы выводим, что при v->oo ( рг/р, еслир<оо, Шу (г)—+ < п (10.15) ' 10, если р = оо. ' ' Этот результат чрезвычайно интересен. В случае когда среднее время возвращения конечно, (10.14) означает, что {рг/р}— рас- пределение вероятностей, и, значит, мы имеем предельную теоре- му обычного типа. Однако при р—оо вероятность того, что время ожидания превысит любое данное число г, стремится к 1. Иначе говоря, наши времена ожидания ведут себя значительно хуже, чем времена возвращения. Это неожиданное явление имеет важные следствия, которые детально обсуждаются в томе 2. (См. также за- дачу 10.) в) Повторное осреднение. Следующая задача имеет аналитичес- кий характер и рассматривалась в различных контекстах значи- тельно более сложными методами. Допустим, что Д+. . .+/г=1 и Для любых г чисел v1?. . ., vT назовем взвешенным средним величину f]Vr+. . .+frvt. Определим теперь бесконечную последо- вательность у2,- • •> которая начинается с заданных г чисел, полагая vn равным взвешенному среднему предыдущих г членов. Иначе говоря, для п>г Vn=f1V„_1+. . .+frvn_r. (10.16) Так как последовательность Д, f2,. . . обрывается на r-м члене, эти уравнения имеют вид (10.1). Определим теперь bk так, чтобы (10.1) выполнялось при всех п. Для этого нужно положить bo^=vo=O и bb=vh—(10.17} (При k>r по определению bh=0.) Без каких-либо вычислений иэ теоремы 1 следует, что при таком повторном осреднении vn стремит- ся к конечному пределу. Чтобы вычислить этот предел, мы должны найти b—b1+. . .+ЬГ. Используя обозначение (10.13) для «хвос- тов» нетрудно вывести из (10.17) и (10.6), что V„ (»1Рг-1 + • • • + УгРо)/(/1 + 2^ + • • + rfr)- (10.18) Например, если г=3 и вычисляются средние арифметические, то /ж=/з=/8^1/3 и v„->(l/6) (Vi+2t>s+3vs). (10.19)
348 Гл, XIII, Рекуррентные события. Теория восстановления Легкость, с которой мы получили этот результат, не должна скры- вать того факта, что задача является трудной, если ее рассматри- вать вне настоящего контекста. (Другой подход можно найти в за- даче 15 гл. XV,14.) г) Самовосстанавливающиеся устройства. Вернемся к примеру из § 2, в котором элемент устройства, устанавливаемый в момент п, имеет срок службы с распределением {fk}. Когда срок службы оканчивается, элемент немедленно заменяется новым элементом то- го же типа; таким образом, последовательные замены образуют возвратное рекуррентное событие в последовательности зависимых испытаний (исходами которых являются решения о том, нужно или нет производить замену). Допустим теперь, что элемент, установленный в момент времени О, имеет возраст fe, а не является новым. Это влияет только на вре- мя ожидания, т. е. S оказывается рекуррентным событием с за- паздыванием. Чтобы получить распределение {Ьп} первого време- ни ожидания, заметим, что Ьп есть (условное) математическое ожи- дание того, что элемент откажет в возрасте n+k при условии, что он уже достиг возраста k. Поэтому при k^l bn = fn+k/rk, где rk<= fk+1+fk+2+ ... . (10.20) На практике нас интересует обычно не отдельный элемент, а все устройство (например, сеть уличных фонарей в городе). Предпо- ложим поэтому, что исходное устройство (в момент времени 0) со- стоит из N элементов, из которых имеют возраст k (причем Каждый элемент порождает последовательность потомков, которым может потребоваться замена в момент п. Математическое ожидание vn числа всех замен в момент времени п, очевидно, удовлет- воряет основному уравнению (10.1) с bn = ^kfn+klrk. (10.21) Мы имеем здесь первый пример, в котором vn — математическое ожидание, а не вероятность; нам известно только, что vn^.N, Несложные вычисления показывают, что b=^bn—N, и по- этому, согласно теореме 1, величины если замены неперио- дичны. Это означает существование устойчивого предельного распре- деления возраста. Действительно, для того чтобы элемент в момент времени п имел возраст k, необходимо и достаточно, чтобы он был установлен в момент п—k и работал до возраста k. Поэтому мате- матическое ожидание числа таких элементов равно vn_k rk и стре- мится к при /г->оо. Иначе говоря, с течением времени доля элементов устройства, имеющих возраст k, стремится к rk/p. Та- ким образом, предельное распределение возраста не зависит от на- чального распределения возраста и определяется только вероят- ностями fa. Аналогичное утверждение справедливо и при значи- тельно более общих условиях. Численный пример приводится в
§ 10. Теория восстановления 349 табл. 3. При этом обнаруживается примечательный факт: стремле- ние л пределу не является монотонным. (См. также задачи 16—18.) Таблица 3 Изменение распределения возраста в устройстве, описанном в примере «г» п 0 1 2 3 4 5 6 7 оо 0 500 397 411,4 412 423,8 414,3 417,0 416,0 416,7 1 320 400 317,6 329,1 329,6 339,0 331,5 333,6 333,3 2 74 148 185 146,9 152,2 152,4 156,8 153,3 154,2 3 100 40 80 100 79,4 82,3 82,4 84,8 83,3 4 6 15 6 12 15 11,9 12,3 12,4 12,5 Столбцы дают распределение возраста в устройстве, состоящем из 1000 элементов, в моменты времени n = 0, 1, .7, а также предельное распре- деление. Предполагается, что распределение срока службы определяется вероятностями Л = 0,20, /2 = 0,43, /з = 0,17, /4 = 0,17, Л=0,03, так что ни один элемент не может иметь возраст 5. Уравнение 1—/?(s)=0 имеет корни 1, —5/3, —5 и ±2/. Среднее время возвращения равно 2,40. д) Человеческие популяции. В качестве примера, где /=5/п>1, мы используем простейшую модель человеческой популяции. Она аналогична модели из предыдущего примера, однако размер попу- ляции является теперь переменным, и рождения женщин играют роль замен. Новой особенностью является то, что женщина может иметь любое число дочерей, и поэтому ее потомство женского пола может исчезнуть, но может стать и многочисленным. Обозначим через fn вероятность того, что новорожденная девочка доживет до возраста пив этот момент у нее появится дочка. (Зависимостью от числа предыдущих детей и их возрастов мы пренебрегаем.) Тогда f==£fn —математическое ожидание числа дочерей, и поэтому в здо- ровой популяции />1. Теорема 1 утверждает, что тогда размер по- пуляции растет с примерно постоянной скоростью g и что распре- деление возраста в популяции стремится к пределу, как это описа- но в предыдущем примере х). Модель, по общему признанию, явля- ется грубой, но тем не менее представляет некоторый практический интерес: любопытную особенность предельного поведения Е, ко- нечно, нельзя было предугадать без соответствующего математи- ческого анализа. г) Однако предельное распределение возраста вычисляется сложнее. Формулы для предельного распределения возраста частиц в ветвящихся процессах можно найти в книге Харрис Т. Е. Теория ветвящихся случайных процессов.— М.: Мир, 1966.— Прим, перев.
350 Гл. XIII. Рекуррентные события. Теория восстановления § 11*). ДОКАЗАТЕЛЬСТВО ОСНОВНОЙ ПРЕДЕЛЬНОЙ ТЕОРЕМЫ В § 3 мы опустили доказательство теоремы 3, которую мы теперь сформулируем следующим образом. Пусть ft, f2). . . — такая по- следовательность неотрицательных чисел, что = и 1 есть наи- больший общий делитель тех п, для которых fn>Q. Пусть и КП = /1Мй-1 + 2^n-2“b • • • +/nW0> П^ 1. (11.1) Тогда ип—*Н-1, где n=-^nfn (11.2) /1= 1 (р-1 полагается равным нулю, когда р = оо). Чтобы не прерывать изложение, мы предпошлем доказательству три известные леммы, которые часто используются вне рамок тео- рии вероятностей. Пусть А — множество всех целых чисел п, для которых fn>fy обозначим через Д+ множество всех возможных линейных комби- наций РА + ... +ргаг (11.3) чисел alt. . ., аг из А (коэффициенты pj — положительные целые числа). Лемма 1. Существует такое число N, что А+ содержит все целые числа n>N. Доказательство. Как было известно еще Евклиду, равенство единице наибольшего общего делителя чисел из А означает, что можно выбрать числа .., аг из А и (не обязательно положитель- ные) целые числа с; так, что . .+сгаг=1. (11.4) Положим $=0!+. . .+аг. Любое целое число п может быть единст- венным образом представлено в виде n—xs+y, где хну — целые и O^z/<s. Поэтому n=i(x + cky)ak, (11.5) и все коэффициенты положительны, если х в у раз больше наи- большего из числа Лемма 2. (Принцип выбора.) Допустим, что для любого целого v>0 задана такая последовательность чисел z^, ..., что Тогда существует такая последовательность v(1), v(2), ... —> оо, что, когда v пробегает ее, z£v) стремится к пре- делу при любом фиксированном k. *) Материал этого параграфа в дальнейшем не используется.
§11. Доказательство основной предельной теоремы 351 Доказательство1). Выберем возрастающую последовательность v“>, . так, чтобы, когда v пробегало ее, z$V) стремилось бы к пределу Выберем из этой последовательности такую под- последовательность vj2), v^2), ..., что, когда v пробегает ее, z(2V)—>z2. Продолжая таким же образом, мы построим для каждого п такую последовательность чисел >оо, что, когда v про- бегает ее, z^V)—>гп, и любое vjn) является элементом предыдущей последовательности Положим теперь v(r) = v/\ Пусть г>п. Все элементы v(r), кроме первых п, принадлежат последо- вательности v(/n, v<n>, ..., и поэтому z^V)—>гп, когда v пробегает последовательность v(1), v(2), .... Лемма 3. Пусть {шп\ (п = 0, ±1, ±2, ...) — такая бесконеч- ная в обе стороны последовательность, что 0 wn 1 и Wn=ifkWn-k (П6) k— 1 при любом п. Если иу0=1, то u>n = l при всех п. Доказательство. Поскольку = (П.7) Л= 1 k=l условие йУ0=1 выполняется только тогда, когда эти два ряда по- членно совпадают, а^именно при любом k либо /\=0, либо Это означает, чтооу_а=1 для любого числа а из Л. Но тогда рассуж- дения, проведенные при п=0, применимы и к случаю п=—а, и мы заключаем, что w_a_b=A, если числа а и b принадлежат А. Продол- жая по индукции, мы заключаем, что w_m=\ для любого числа т из А + , и поэтому при любом m>N. Но это значит, что при —N сумма в правой части (11.6) равна 1 и, таким образом, ^-лг=1. Полагая п=—N+1, находим аналогично, что и, продолжая эти рассуждения, получаем по индукции, что wn^=l для всех п. ► Доказательство теоремы. Положим т] = lim sup ип. (11.8) П-^оо В силу (11.1) очевидно, что 0^т|^1, и существует такая стремящая- ся к бесконечности последовательность гъ r2t. . ., что при v->oo (П.9) г) Это доказательство основано на так называемом диагональном методе Г. Кантора (1845—1918). Он давно стал стандартным, но во времена Кантора по- трясал своей новизной.
352 Гл. XIII. Рекуррентные события. Теория восстановления Для каждого положительного целого числа v введем бесконечную в обе стороны последовательность \и(^} равенствами Urv о, если если п<—'rv. (11.10) Чтобы упростить изложение, лемма 2 была сформулирована для обычных последовательностей, однако она, очевидно, справедлива также и для бесконечных в обе стороны последовательностей. По- этому можно найти возрастающую последовательность целых чисел Vi, v2,. . такую, что если индекс v пробегает эту последователь- ность, то величина стремится к wn любого п. По построе- нию и Далее, для любого v и п>—v определение (11.1) принимает вид k=l (11.11) и, переходя к пределу, мы получаем (11.6). По лемме 3 имеем шп = =г) при любом п. Мы можем теперь завершить доказательство. Как и ранее, по< ложим Pk=fk+i~Hk+2~^- • •» (11-12) так что roj=l и (см. формулу (1.8) гл. XI). Суммируя соот- ношения (11.1) по п—1, 2,. . ., N и приводя подобные члены, мы получаем тождество Ро^^4"Р1^дг_1+. . .-j-pjyWo^l• (11.13) Используем это соотношение последовательно для N=v19 v2,. . . . Когда N пробегает эту последовательность, uN_k^w_k==x] при любом k. Если 2рь“°°, то г|=0, и поэтому цп->0, как и ут- верждалось. Если р—2рь<°°, то ц=р-1, и остается показать, что тогда uN-+x] при любом способе стремления N к бесконечности. По определению верхнего предела мы имеем при лю- бом фиксированном k и достаточно большом N. Более того, wn^l при всех п. Допустим теперь, что N стремится к бесконечности так, что Из (11.13) легко вывести, что асимптотически роЦо+(Р14-. • -+pr) 0l4‘e)+Pr + i+pr + 2+- • «^1, (И.14) и поэтому роСПо—ц)+р (г)+е)>1. (11.15) Но рц — 1 и по определению г). Поскольку (11.15) выполняет- ся для каждого 8>0, отсюда следует, что г)0=г), и, значит, при любом способе стремления N к бесконечности.
§ 12. Задачи 35$ § 12. ЗАДАЧИ 1. Допустим, что F (s) — многочлен. Доказать для этого случая все тео- ремы § 3, используя метод разложения на простейшие дроби из гл. XI, 4. 2. Пусть подбрасываются г монет и рекуррентное событие состоит в том, что для каждой из г монет суммарные числа появлений гербов и ре- шеток одинаковы. Возвратно или невозвратно событие <£*? Для минималь- ного г, при котором $ невозвратно, найти вероятность того, что $ про- изойдет хотя бы один раз. 3. Пусть событие состоит в том, что в последовательности независимых бросаний идеальной кости суммарные числа появлений единиц, двоек, ..., шестерок одинаковы. Показать, что — невозвратное (периодическое) рекур- рентное событие, и найти вероятность / того, что & произойдет хотя бы один раз. 4. Пусть в последовательности испытаний Бернулли событие происхо- дит, когда суммарное число успехов в X раз превосходит суммарное число неудач; здесь X—целое положительное число. (См. пример 1, в).) Показать, что возвратно тогда и только тогда, когда plq = T, т. е. р = Х/(Х-[-1). Указание. Воспользоваться нормальным приближением. 5. Мы говорим, что в последовательности испытаний Бернулли проис- ходит событие (£*, если суммарное число успехов вдвое превосходит суммарное число неудач и это отношение никогда ранее не превышало 2. Показать, что невозвратно и периодично. Показать, далее, что произво- дящая функция определяется кубическим уравнением F (s) = qs (U (s) ps)2. (Указание. U(s)ps—производящая функция времени ожидания первого момен- та, когда число успехов будет больше удвоенного числа неудач.) 6. Пусть Ху — независимые целочисленные одинаково распределенные слу- чайные величины. Допустим, что они принимают как положительные, так и отрицательные значения. Доказать, что событие, определяемое условиями Sn = 0, S2<0, ..., S„_1^0, является рекуррентным и невозвратным. 7. Счетчики Гейгера. (См. примеры 1,ж) и 4, д).) Обозначим через Nn и Zn число появлений (§ и число регистраций до момента времени п включи- тельно. Установить связь между этими величинами и найти асимптотические формулы для Е (Z„) и Var(Z„). 8. В счетчиках Гейгера второго типа каждая появляющаяся частица (не- зависимо от того регистрируется она или нет) запирает счетчик ровно на г единиц времени (т. е. на г—1 испытаний, следующих за моментом ее появления). Длительность мертвого времени, следующего за регистрацией, является поэтому случайной величиной. Найти ее производящую функцию G. Для рекуррентного события состоящего в том, что счетчик «свободен», выразить производящую функцию F его времени возвращения через G. Нако- нец, найти среднее время возвращения. 9. Более общий тип счетчиков Гейгера. Пусть, как и в задаче 8, каждая новая частица полностью уничтожает влияние предыдущих, но теперь мы будем предполагать, что время, на которое частица запирает счетчик, является случайной величиной с заданной производящей функцией В (s). (В предыду- щей задаче B(s) = sr.) Решить задачу 8 при этих более общих условиях. 10. Для рекуррентного события (§ с запаздыванием вероятности vn не зависят от п только в случае, когда производящая функция момента первого появления имеет вид В (s) = (1 — F (s))/[pi (1 — s)], т. е. когда bn—(fn + 1-[- +/72 + 2+• • О/Н- Как это связано с предельной теоремой для вероятностей попадания в примере 10,6)? 11. Найти приближенное значение вероятности того, что при 10 000 бро- саний монеты число серий гербов длины 3 лежит между 700 и 730. 12. Пусть <§ означает появление ГРГ в последовательности бросаний монеты. Обозначим через гп вероятность того, что не произойдет в п испы- таниях. Найти производящую функцию и при помощи разложения на про- стейшие дроби получить асимптотическое разложение. 13. Показать, что в примере 8, б) математическое ожидание времени до появ- 12 № 2 24
354 Гл. XIII. Рекуррентные события. Теория восстановления ления серии успехов длины г или серии неудач длины р равно mWOh+pJ. где pi и р2— средние времена возвращения для серии успехов длины г и серии неудач длины р соответственно. 14. Возможные исходы А, В, С каждого испытания имеют вероятности а, Р, у (а+ Р+?= 1). Найти производящую функцию вероятностей того, что в п испытаниях отсутствуют серии длины г: а) из исходов Л, б) из исходов А или В, в) любого вида. 15. Продолжение. Найти вероятность того, что первая Л-серия длины г предшествует В-серии длины р и заканчивается при n-м испытании. (Указание. Производящая функция имеет тот же вид, что X(s) в (8.6), причем В и G вычисля- ются по формулам (7.6) с заменой р=1—q на а и Р соответственно.) 16. Самовосстанавливающиеся устройства. В примере 10, г) найти пре- дельное распределение возраста, предполагая, что распределение срока службы является геометрическим: fk — qb-'Lp. 17. Продолжение. Начальное распределение возраста {Р^} называется ста- ционарным, если оно не изменяется с течением времени. Показать (без вы- числений), что это возможно только при р^ = гЛ/р. 18. Продолжение. Обозначим через w^(n) математическое ожидание числа элементов, имеющих в момент времени п возраст k. Найти рекуррентные уравнения и вывести из них, что число элементов устройства остается постоянным. Показать далее, что математическое ожидание w0(n) удовлетворяет соотношению о>о («)=^о («—1) fi/rQ+wi (п—1) /2/н+- • * • 19. Пусть —возвратное непериодическое рекуррентное событие. Допус- тим, что время возвращений имеет конечное среднее р, и дисперсию о2. По- ложим qn = fn+1 + fn+2+’" и rn = qn+i+qn+2+... . Показать, что произ- водящие функции Q (s) и П (s) сходятся при s=l. Доказать, что «о+ 5 s" = я (s)/(H<2 («)) (12.1) /1=1 и что поэтому «о+ 2 («„- 1/IX) =(о2-н+и2)/(2Р). (12.2) /7=1 20, Пусть —возвратное рекуррентное событие и Nr — число появлений в г испытаниях. Доказать, что г— 1 Е (Nr) = Wi+e4g +иг +2 2 uj (wi+»• • (12.3) / = 1 и что поэтому Е (N?) является коэффициентом при sr в (F2 (s)+F (s))/[(l -s) (1-F (s))2]. (12.4) (Заметить, что это можно сформулировать изящнее при помощи двойных про- изводящих функций.) 21. Положим 9ft w = P{Nfc = tt}. Показать, что qkt п—это коэффициент при в F«(s) (1—-F (s))/(l—s). (12.5) Вывести отсюда, что Е (Nr) и Е (Nf) являются коэффициентами при $г в р (S)/[(1— S) (1—F(S))J (12.6) и в (12.4) соответственно,
§ 12, Задачи 355 (12.7) (12.8) 22. Используя обозначения задачи 19, показать, что Г (s) = _ 1 . 1 . /? (s) (l-s);(l-F(s)) Отсюда и из последней задачи вывести равенство Е (Мг) = г/И+(а2+и~и2)/(2И2) + 8г, где 8Г —> 0. 23. Продолжение. Используя аналогичные рассуждения, показать, что E(N?) = r2/H2+[(2a2 + n—ц2)/ц3] г+аг, (12.9) где аг/г —> 0. Поэтому Var (Nr) ~ (сг2/р,3) г. (12.10) (Указание. Представить разность выражений (12.4) и (12.7) в виде суммы трех дробей со знаменателями, кратными (1—s)k, &=1, 2, 3.) 24. Пусть qktn — вероятность того, что в k испытаниях Бернулли имеется ровно п серий успехов длины г. Используя решение задачи 21, показать, что производящая функция (х) = 2 4k, пхП является коэффициентом при sk в (1—prsr)/[l —s-\-qprsr + 1— (1—ps) prsrx]. Показать далее, что наименьшим по абсолютной величине корнем знаменателя является Sj « l + qpr (1—х). 25. Продолжение. Пуассоновское распределение длинных серий1). Доказать, что если число k испытаний и длина г серии стремятся к бесконечности так, что kqpr—j-X, то вероятность получить ровно п серий длины г стремится к е~ЛХи/п!. Указание. Используя предыдущую задачу, показать, что для про- изводящей функции справедлива асимптотическая формула {1 -\-qpr (1—х)}~*— ~е-А<х-*). Использовать теорему непрерывности гл. XI, 6. х) Эта теорема была доказана Мизесом, однако наш метод значительно проще. 12*
ГЛАВА XIV СЛУЧАЙНОЕ БЛУЖДАНИЕ И ЗАДАЧИ О РАЗОРЕНИИ § 1. ОБЩИЕ ПОНЯТИЯ Первая часть этой главы посвящена испытаниям Бернулли, и для упрощения и оживления формулировок мы здесь снова вос- пользуемся образным языком пари и теории случайных блужданий. Обратимся к уже известному нам игроку, который выигрывает или проигрывает доллар с вероятностями р и q соответственно. Пусть его начальный капитал равен г, и пусть он играет против соперника с начальным капиталом а — г, так что их суммарный капитал равен а. Игра продолжается до тех пор, пока капитал на- шего игрока либо не уменьшится до нуля, либо не возрастет до а, т. е. до тех пор, пока один из двух играющих не разорится. Мы интересуемся вероятностью разорения нашего игрока и распределе- нием вероятностей для продолжительности игры. Это классическая задача о разорении. Физические приложения и аналогии подсказывают более гибкую интерпретацию — при помощи понятия блуждающей точки или «ча- стицы» на оси х. Эта частица выходит из начального положения г и совершает через равные промежутки времени единичные скачки в положительном или отрицательном направлении в зависимости от того, чем закончилось соответствующее испытание — успехом или неудачей. Положение частицы после п шагов представляет капитал игрока по завершении м-го испытания. Испытания прекращаются, когда частица впервые достигает либо точки %=0, либо точки х=а> и мы говорим в этом случае, что частица совершает случайное блуж- дание с поглощающими экранами в точках х=0 и х=а. Это случай- ное блуждание ограничено возможными положениями 1,2,... ..., а—1; при отсутствии поглощающих экранов случайное блужда- ние называется неограниченным. Физики используют модель случай- ного блуждания в качестве грубого приближения для одномерной диффузии или броуновского движения, в котором физическая части- ца подвергается большому числу столкновений с молекулами, сооб- щающими ей случайное движение. Случай p>q соответствует сносу вправо, когда толчки слева более вероятны; при p—q=AI2 случайное блуждание называется симметричным. В предельном случае а -> оо мы получаем случайное блуждание на полубесконечной прямой: выходящая из 0частица совершает случайное блуждание до того момента, когда она впервые достигнет дуля. В этой формулировке мы узнаем задачу о времени первого
§ 1. Общие понятия 357 достижения^ она была решена элементарными методами в гл. III (по крайней мере для симметричного случая) и с использованием производящих функций в гл. Х1,3. Мы встретимся с уже получен- ными ранее формулами, однако они будут выведены по-новому. В этой главе мы воспользуемся методом разностных уравнений, которые являются аналогом дифференциальных уравнений теории диффузии. Эта аналогия естественным образом приводит к различ- ным модификациям и обобщениям классической задачи о разорении; типичным и поучительным примером здесь является замена погло- щающего экрана отражающим и упругим экранами. Чтобы описать отражающий экран, рассмотрим случайное блуждание в конечном интервале, определенное как и ранее, за тем исключением, что каж- дый раз, когда частица оказывается в точке х= 1, она с вероятностью р перемещается в точку х=2 и с вероятностью q остается в точке х—1. В игровой терминологии это соответствует такому соглаше- нию: когда игрок проигрывает свой последний доллар, этот доллар великодушно возвращается ему противником, так что игра может продолжаться. Физик представляет себе стенку, помещенную в точ- ке х— 1/2 оси х и обладающую тем свойством, что частица, движу- щаяся из точки х=1 в точку х=0, отражается от стенки и возвра- щается в точку х—1 вместо того, чтобы попасть в точку х=0. Как поглощающий, так и отражающий экраны являются част- ными случаями так называемого упругого экрана. Мы определим упругий экран в точке х=0 при помощи следующего правила: из точки х=1 частица с вероятностью р движется к точке х=2, с вероят- ностью 8q останется в точке х=1 и с вероятностью (1—8)q движется к точке х=0 и поглощается (т. е. процесс прекращается). При 6=0 мы имеем классическую задачу о разорении, или поглощающие экраны, при 6=1 — отражающие экраны. Когда 6 меняется от 0 до 1, мы получаем семейство промежуточных случаев. Чем больше 6, тем более вероятно, что процесс будет продолжаться, и процесс с двумя отражающими экранами никогда не сможет прекратиться. Параграфы 2 и 3 посвящены элементарному обсуждению клас- сической задачи о разорении и связанных с ней вопросов. Последую- щие три параграфа технически более сложны (и могут быть опуще- ны); в § 4 и 5 мы выводим производящие функции и из них — явные выражения для распределения продолжительности игры и т. п. Параграф 6 содержит схему предельного перехода к уравне- нию диффузии (формальные решения этого уравнения являются предельными распределениями для случайного блуждания). В § 7 изложение снова становится элементарным и посвящено случайным блужданиям в двух и более измерениях, где мы сталки- ваемся с новыми явлениями. В § 8 рассматривается обобщение совершенно другого типа: одномерное случайное блуждание, при котором частица не обязательно перемещается единичными скач- ками, а может менять свое положение скачками произвольной вели- чины, кратной единице. Такие обобщенные случайные блуждания
358 Гл. XIV. Случайное блуждание и задачи о разорении привлекли широкий интерес в связи с развитой Вальдом теорией последовательного анализа. Раздел задач содержит существенные дополнения к тексту и наб- роски альтернативных подходов. Можно надеяться, что сравнение используемых методов окажется весьма поучительным. В заключение следует подчеркнуть, что каждое случайное блуж- дание представляет собой некоторую цепь Маркова, так что настоя- щая глава служит частично и введением в следующую, где некото- рые задачи для случайных блужданий (например, задачи с упругими экранами) будут сформулированы иначе. § 2. КЛАССИЧЕСКАЯ ЗАДАЧА О РАЗОРЕНИИ Рассмотрим задачу, поставленную в начале настоящей главы. Пусть qz — вероятность окончательного разорения * х) игрока, a pz — вероятность того, что он в конце концов выиграет. В терминах тео- рии случайного блуждания qz и pz суть вероятности того, что части- ца, выходящая из точки г, будет поглощена соответственно в О или в а. Мы покажем, что pz+<7z=l, так что нам не нужно рассмат- ривать возможность нескончаемой игры. После первого испытания состояние игрока равно либо z—1, либо г+1, и поэтому <72=Wz+i+Wz-i, (2-0 если 1<Хя—1. При z=l первое же испытание может привести к разорению и (2.1) следует заменить на qi=pq2+q- Точно так же при z=a—1 первое испытание может закончиться победой, и поэтому <7a_i=Wa_2- Чтобы объединить наши уравнения, положим <7о=1, 7а=0. (2.2) При этом соглашении вероятность qz разорения удовлетворяет (2.1) для 2=1, 2, . . ., а—Л. Системы вида (2.1) известны под названием разностных урав- нений 2), а (2.2) представляют собой граничные условия на qz. Мы выведем явное выражение для qz при помощи метода частных реше- ний, который будет использоваться и в более общих случаях. Предположим сперва, что p=£q. Легко проверить, что разностное уравнение (2.1) допускает два частных решения qz=l и qz=(qlp)z. Следовательно, qz=A+B(qlPy, (2.3) х) Строго говоря, вероятность разорения определена на пространстве эле- ментарных исходов бесконечно продолжающихся игр, но мы можем работать и с пространством элементарных исходов для п испытаний. Вероятность разорения менее чем за и испытаний возрастает вместе спи, следовательно, имеет предел. Мы назовем этот предел «вероятностью разорения». Все вероятности в этой главе можно интерпретировать таким образом, не обращаясь к бесконечным простран- ствам (ср. гл. VIII, 1). 2) Подробнее о разностных уравнениях см., например, Гельфонд А. О.> Исчисление конечных разностей.— М.: Наука, 1967.— Прим, перев..
§ 2. Классическая задача о разорении 359 где А и В — произвольные константы, представляет собой фор- мальное решение системы (2.1). Граничные условия (2.2) будут вы- полнены тогда и только тогда, когда А и В удовлетворяют двум линейным уравнениям Д+В=1 и А-\-В (q/p)a=O. Таким образом, <7г = [(Я/Р>а~ (Ч/Р)г]/[(<1/р)а — 1] (2Л) формально является решением разностного уравнения (2.1), удов- летворяющим граничным условиям (2.2). Для того чтобы доказать, что (2.4) является искомой вероятностью разорения, осталось пока- зать, что это решение единственно, т. е. что все решения уравнения (2.1) имеют вид (2.3). Если нам теперь дано произвольное решение уравнения (2.1), то можно выбрать две константы А и В так, что (2.3) будет совпадать с ним при 2=0 и 2=1. Подставляя в (2.1) по- следовательно 2=1, 2, 3, ... , мы можем найти по этим двум значениям все остальные. Стало быть, два решения, совпадающие при z=0 и 2=1, тождественно равны, и, следовательно, каждое решение имеет вид (2.3). При р=7=1/2 наше рассуждение не проходит, ибо тогда (2.4) бессмысленно, так как частные решения qz=l и qz=(qipY в этом случае совпадают. Однако при p=q=l/2 у нас есть второе решение qz=z, и поэтому qz=A+Bz дает нам зависящее от двух констант решение уравнения (2.1). Для того чтобы были удовлетворены граничные условия (2.2), мы должны положить Л = 1 и А+Ва=0. Следовательно, qz=l—zla. (2.5) (То же численное значение можно формально получить из (2.4), если, пользуясь правилом Лопиталя, найти предел этого выра- жения при р -> 1/2.) Таким образом, мы доказали, что искомая вероятность разорения игрока дается формулой (2.4) при p=^=q и формулой (2.5) при p=q— = 1/2. Вероятность pz выигрыша нашим игроком всей игры равна вероятности разорения его противника и, стало быть, получается из наших формул при замене р, q и z на q, р и а—z соответст- венно. Легко видеть, что /2Z+7Z=1, как уже говорилось выше. Мы можем переформулировать наш результат следующим обра- зом. Пусть игрок с начальным капиталом z играет против беско- нечно богатого соперника, всегда готового продолжать игру, тогда как сам игрок имеет право прервать игру по своему желанию. Игрок, согласно принятой им стратегии, играет по тех пор, пока он либо не потеряет свой капитал, либо не увеличит его до а (с чистым выигрышем а—2). Тогда qz равно вероятности его проигрыша, а 1— —qz — вероятности его выигрыша. При такой системе окончательный выигрыш или проигрыш игрока будет случайной величиной G, принимающей значения а—z и —2 с вероятностями 1—qz и qz соответственно. Ожидаемый выигрыш
360 Гл. XIV. Случайное блуждание и задачи о разорении равен E(G)=a(l-?z)-z. (2.6) Очевидно, E(G)=0 тогда и только тогда, когда p=q. Это означает, что при описанной системе «безобидная» игра остается безобидной, а «небезобидная» игра не может превратиться в безобидную. Из (2.5) мы видим, что в случае p=q игрок с начальным капита- лом z=999 имеет вероятность 0,999 выиграть доллар до того, как он проиграет весь свой капитал. При </=0,6, р=0,4 игра весьма небла- гоприятна, но вероятность (2.4) выиграть доллар до потери капитала все еще будет около 2/3. Вообще, игрок с относительно большим начальным капиталом z имеет приличные шансы выиграть неболь- шую сумму а—z до своего разорения г). (Удивительное следствие нашего результата см. в задаче 4.) Изучим теперь влияние изменения ставок. Изменение единицы с доллара на полдоллара эквивалентно удвоению начальных капита- лов. Соответствующая вероятность разорения q* получается из (2.4) с заменой z на 2г и а на 2а: п* __ (q!p)2a—(q/p)2z __ п (q/p)a+(q/p)z 4 * 2 * (q/p)2a—i 4z' (q/p)a+i ‘ { 4 * При q>p последняя дробь больше единицы и q*£>qz. Мы переформу- лируем это заключение следующим образом: если ставки удваива- ются, а начальные капиталы остаются неизменными, то вероятность разорения уменьшается для игрока, у которого вероятность успеха р<\12, и возрастает для его противника (для которого игра выгод- на 2)). Предположим, например, что Петр имеет 90 долларов, а Павел 10 и что р=0,45, т. е. игра неблагоприятна для Петра. Если ставка в каждом испытании равна одному доллару, то табл. 1 показывает, что вероятность разорения Петра равна приблизительно 0,866. Если в этой же игре ставка равна 10 долларам, то вероятность ра- зорения Петра падает ниже одной четвертой, а именно примерно до 0,210. Таким образом, влияние увеличения ставок выражено более резко, чем можно было бы ожидать. 0 Некий игрок из года в год ездил в Монте-Карло и всегда успешно покры- вал расходы на свой отдых. Он твердо верил в магическую власть над случаем. В действительности же в его опыте нет ничего удивительного. Если предположить, что он начинал с суммой, в десять раз большей его окончательного выигрыша, то каждый год вероятность успеха составляла примерно 0,9. Вероятность непре- рывающейся последовательности из десяти успехов равна приблизительно (1 — — 1/10)10~е-1~0,37. Таким образом, продолжительные успехи ни в коей мере не являются невероятными. Более того, в одной неудаче, по мнению игрока, конечно, были бы виноваты неосмотрительность или кратковременное недомогание. 2) Детальный анализ других возможных стратегий можно найти в (неэлемен- тарной) книге Dubbins L. Е., Savage L. J., How to gamble if you must (которая имеет более информативный подзаголовок: Inequalities for stochastic processes), New York, McGrow-Hill, 1965.
§ 2, Классическая задача о разорении 361 К классической задаче о разорении игрока Таблица 1 р Q г а Вероятность Математическое ожидание разорения успеха выигрыша продолжитель- ности игры 0,5 0,5 9 10 0,1 0,9 0 9 0,5 0,5 90 100 0,1 0,9 0 900 0,5 0,5 900 1000 0,1 0,9 0 90 000 0,5 0,5 950 1 000 0,05 0,95 0 47 500 0,5 0,5 8 000 10 000 0,2 0,8 0 16 000 000 0,45 0,55 9 10 0,210 0,790 —1,1 11 0,45 0,55 90 100 0,866 0,134 —76,6 765,6 0,45 0,55 99 100 0,182 0,818 — 17,2 171,8 0,4 0,6 90 100 0,983 0,017 —88,3 441,3 0,4 0,6 99 100 0,333 0,667 —32,3 161,7 Начальный капитал равен г. Игра заканчивается разорением (проигрыш г) или обладанием капиталом а (выигрыш а—z), Вообще, если при каждом испытании ставится k долларов, то вероятность разорения мы находим из (2.4), заменяя z на zlk и а на a/k\ вероятность разорения убывает с ростом k. Поэтому в игре с постоянными ставками игрок будет минимизировать вероятность разорения, выбирая наибольшую ставку, совместимую с его намере- нием выиграть заранее фиксированную сумму. Эмпирическая обос- нованность этого заключения подвергалась сомнению обычно теми людьми, которые утверждают, что каждое «невыгодное» пари нера- зумно. Если бы это было принято всерьез, то это означало бы конец страхового дела, ибо осторожный водитель, страхующийся на вся- кий случай, играет при этом, очевидно, в технически «невыгодную» игру. В действительности в теории вероятности не существует ни- какой теоремы, которая отбила бы у такого водителя охоту страхо- ваться. Предельный случай а=оо соответствует игре против беско- нечно богатого соперника. Устремляя в (2.4) и (2.5) а к оо, по- лучаем ( 1, если p^q, а (2.8) ч* I (q!p¥> если Мы интерпретируем qz как вероятность окончательного разорения игрока с начальным капиталом zx играющего против бесконечно
362 Гл. XIV. Случайное блуждание и задачи о разорении богатого соперника х). В терминологии теории случайных блужда- ний qz есть вероятность того, что выходящая из г>0 частица когда- либо достигнет нуля. Более естественно перефразировать этот ре- зультат в следующем виде: в случайном блуждании, начинаю- щемся в нуле, вероятность когда-либо достичь положения г>0 рав- на 1, если p^q, и равна (plq)z при p<q, § 3. МАТЕМАТИЧЕСКОЕ ОЖИДАНИЕ ПРОДОЛЖИТЕЛЬНОСТИ ИГРЫ Вероятностное распределение продолжительности игры будет выведено в следующих параграфах. Однако ее математическое ожи- дание может быть получено гораздо более простым методом, который применяется столь широко, что стоит объяснить его сейчас (хотя для этого придется несколько повториться). Мы по-прежнему рассматриваем классическую задачу о разоре- нии, сформулированную в начале этой главы. Будем считать изве- стным тот факт, что продолжительность игры имеет конечное мате- матическое ожидание Dz (это будет строго доказано в следующем параграфе). Если первое испытание заканчивается успехом, то игра продол- жается, как если бы начальным положением было г+1. Стало быть, условное математическое ожидание продолжительности игры при условии первого успеха равно £>z+i+l. Это соображение показы- вает, что ожидаемая продолжительность Dz удовлетворяет разност- ному уравнению Dz = pDz+-^-\~ qDz_r + 1, 0 < z < а, (3.1) с граничными условиями Do = O, Da = 0. (3.2) Наличие члена 1 делает разностное уравнение (3.1) неоднород- ным. Если p^q, то Dz=z! (q—р) будет формальным решением урав- нения (3.1). Разность Az любых двух решений (3.1) удовлетворяет однородным уравнениям Az=pAz+1+#Az_i, а мы уже знаем, что все решения этого уравнения имеют вид А+В (q/p)z. Отсюда следу- ет, что при p^q все решения уравнения (3.1) представимы в виде Dz=z/ (q-p)+A+B (q/p)z. (3.3) Для выполнения граничных условий (3.2) требуется, чтобы А+В=0, A+B(q/p)a=—a/(q—p). г) Легко видеть, что qz представляет собой решение разностных уравне- ний (2.1), удовлетворяющее (теперь единственному) граничному условию q0=1. При р > q это решение не единственно. В действительности наш результат содержится в формуле (3.9) гл. XI и будет получен независимым образом (в усиленной форме) в § 4.
§ 4. Производящие функции для продолжительности игры 363 Разрешая эти равенства относительно А и В, находим, что D =—_________— • (3 4) * q-p q-p l — (q/p)a' ' 7 Этот прием опять-таки непригоден при q=p=l/2. В этом случае мы заменяем z/(q—р) на —г?, которое является теперь решением (3.1). Отсюда вытекает, что если p=q=l/2, то все решения (3.1) имеют вид Dz=—z2+A+Bz. Искомое решение Dz, удовлетворяющее гранич- ным условиям (3.2), равно Dz=z(a—z). (3.5) Математическое ожидание продолжительности игры в класси- ческой задаче о разорении равно (3.4) при p=^q и (3.5) при p=q=\/2. Следует отметить, что полученные нами значения для продол- жительности игры значительно больше, чем мы обычно наивно ожи- даем. Если два игрока, имеющие по 500 долларов каждый, бросают монету до тех пор, пока один из них не разорится, то средняя про- должительность игры равна 250 000 испытаниям. Если игрок имеет лишь один доллар, а его противник — 1000, то средняя продолжи- тельность равна 1000 испытаниям. Дальнейшие примеры см. в табл. 1. Как уже указывалось в конце предыдущего параграфа, мы мо- жем перейти к пределу при а -> оо и рассмотреть игру против бесконечно богатого соперника. При p>q игра может продолжаться бесконечно, и говорить о математическом ожидании ее продолжи- тельности в этом случае бессмысленно. При p<.q мы получаем для математического ожидания продолжительности игры значение z (q—р)”1, а при p=q оно бесконечно. (Этот же результат был уста- новлен в гл. Х1,3 и будет независимо доказан в следующем парагра- фе.) § 4*). ПРОИЗВОДЯЩИЕ ФУНКЦИИ ДЛЯ ПРОДОЛЖИТЕЛЬНОСТИ ИГРЫ И ДЛЯ ВРЕМЕН ПЕРВОГО ДОСТИЖЕНИЯ Мы воспользуемся методом производящих функций для изуче- ния продолжительности игры в классической задаче о разорении, т. е. продолжительности ограниченного случайного блуждания с поглощающими экранами в точках х=0 и х=а. Начальным положе- нием является z (0<z</z). Пусть uz,n — вероятность того, что про- цесс окончится на п-м шаге на экране х=0 (разорение игрока при п-м испытании). После первого шага частица попадает или в точку x=z+l, или в точку x=z—1, и мы заключаем, что для l<z<a—1 и п^1 4z,n+i = pu2+i,nA-qu2.t,n. (4.1) *) Этот параграф, как и связанный с ним § 5, может быть опущен при первом чтении,
364 Гл. XIV. Случайное блуждание и задачи о разорении Это — разностное уравнение, аналогичное (2.1), но зависящее уже от двух переменных z и п. Мы хотим (по аналогии с процедурой из § 2) определить граничные условия и0, п, иач п и uz^ так, чтобы (4.1) было также справедливо для z=l, z=a—1 и n=Q. Для этой цели положим Wo, п = иа, п = 0 при п^\ (4.2) и w0)0 = l, иг,о = О при 0<z^.a. (4.3) Тогда (4.1) справедливо для всех z при 0 < z < а и всех Введем теперь производящие функции (4.4) п = 0 Умножая (4.1) на sw+1 и суммируя по м, находим (8) = pst/2+1 (s)4-?st/z_i (s), 0 < z < а; (4.5) граничные условия (4.2) и (4.3) приводят к равенствам t70(s) = l, (7a(s)=0. (4.6) Система (4.5) состоит из разностных уравнений, аналогичных (2.1), а граничные условия (4.6) соответствуют (2.2). Новизна здесь заключается в том, что коэффициенты и неизвестные Uz(s) зависят теперь от переменной $, однако для самого разностного уравнения s является просто произвольной постоянной. Если только нам удастся найти два частных решения системы (4.5), то мы снова сможем при- менять метод § 2. Естественно выяснить, существуют ли два реше- ния Uz(s) вида Uz(s)=V(s). Подставляя это выражение в (4.5), мы находим, что Х($) должно удовлетворять квадратному уравнению X (s)=ps№ (s)+^s, (4.7) имеющему два корня: 14.8) (мы берем 0 < s < 1 и положительный квадратный корень). Теперь у нас есть два частных решения системы (4.5), и, как и в § 2, мы заключаем, что все ее решения имеют вид Uz (s) = A (s) A* (s) +В (s) Ц (s), (4.9) где A (s) и В (s) — произвольные функции. Чтобы удовлетворить граничным условиям (4.6), мы должны иметь z4(s)4-B(s) = l и A (s) X? (s) + В (s) A? (s) = 0, откуда Л1 (S) —Л2 \S)
§ 4. Производящие функции для продолжительности игры 365 Пользуясь очевидным соотношением (s) Х2 (s) = q/p, это выраже- ние можно упростить: (q\z 2ii~2(s)-%2~2(s) \р) 2l?(s)-Xf(s) (4.Н) Это и есть искомая производящая функция вероятности разорения (поглощения в точке x=ty при n-м испытании. Тот же метод пока- зывает, что производящая функция для вероятности поглощения в точке х=а дается формулой ($) (s) * (4.12) Производящая функция для продолжительности игры равна, ко- нечно, сумме производящих функций (4.11) и (4.12). Бесконечные интервалы и первые достижения Проведенные выше рассуждения применимы равным образом и к случайным блужданиям на интервале (0, оо) с поглощающим экра- ном в точке х=0. Частица, выходящая из положения г>0, в конце концов поглощается в нуле, в противном случае блуждание продол- жается вечно. Поглощение соответствует разорению игрока с на- чальным капиталом г, играющего против бесконечно богатого сопер- ника. Производящая функция Uz(s) вероятностей uZiTl того, что поглощение происходит в точности при n-м испытании,’ вновь удов- летворяет разностным уравнениям (4.5) и, стало быть, имеет вид (4.9); однако если не выполняется условие A (s)=0, то это решение не ограничено на бесконечности. Единственное граничное условие те- перь состоит в том, что Uо (s) = 1, и поэтому B(s) = l, или U2(s) = Kz(s) (4.13) (такой же результат можно получить, устремив в (4.11) а к оо и воспользовавшись тем, что (s)2i2(s) =q/p)- Из (4.13) при s=l следует, что поглощение неизбежно при а в противном случае имеет вероятность (qlp)z. К такому же выводу мы пришли в § 2. Рассматриваемое нами поглощение в нуле допускает и другую важную интерпретацию — как первое достижение в неограниченном случайном блуждании. Действительно, перенося начало координат в точку г, мы видим, что в начинающемся в нуле случайном блуж- дании на всей прямой uz*n будет вероятностью того, что первое попадание в точку —z<Q произойдет при n-м испытании. То, что соответствующая производящая функция (4.13) является z-й сте- пенью Х2, отражает тот очевидный факт, что время ожидания до первого прохождения через —z является суммой z независимых времен ожидания между последовательными первыми прохождения- ми через —1, —2, . . . , —г.
366 Гл, XIV. Случайное блуждание и задачи о разорении Явная формула для uZin в частном случае р=1/2 была выве- дена элементарными методами в гл. III (формула (7.5)). Учиты- вая, что нужно совершить (n + z)/2 шагов влево и (п—z)/2 шагов вправо, легко заключить, что и в общем случае справедлива та же формула, за тем лишь исключением, что отдельные траектории имеют теперь вероятности p(n-z)/*q(n+z)/z, а не 2~п. Таким образом, U = П \ п(П-2)/2а(П+г)/2 (4.14) /Д(п + г)/2Л q 1 ' где биномиальный коэффициент полагается равным нулю, если п и z — числа разной четности. (Относительно вывода этой формулы при помощи производящей функции см. конец § 3 гл. XI. Другой, внешне совершенно отличный вариант явной формулы содержится в задаче 13.) § 5*). ЯВНЫЕ ВЫРАЖЕНИЯ Производящая функция Uz в (4.11) формально зависит от квад- ратного корня, однако в действительности она является рациональ- ной функцией s. В самом деле, элементарное разложение бинома приводит знаменатель к виду X? (s)-к (s) = s~a Vl-4pqs*Pa (s), (5.1) где Ра — многочлен четного порядка, равного а—1 при нечетном а и а—2 — при четном. Числитель имеет тот же вид, только вместо а стоит а—z. Таким образом, V z является отношением двух многочле- нов, степени которых отличаются самое большее на 1. Следователь- но, можно вывести явные выражения для вероятностей разорения при помощи описанного в гл. Х1,4 метода разложения на про- стейшие дроби. Этот результат интересен из-за его связи с теорией диффузии, а его вывод является прекрасной демонстрацией техники, применяемой при практическом использовании простейших дробей. Вычисления весьма упростятся, если мы воспользуемся вспомо- гательной переменной ср, определяемой соотношением cos ср = l/(2/Ws). (5.2) (Интервалу 0 < s < 1 здесь соответствуют комплексные значения <р, однако это не оказывает никакого влияния на формальные вык- ладки.) Из (4.8) имеем (s) — Vq/P [cos <p -|- i sin <p] = Yq/p elf, (5.3) тогда как ^2(s) получается из этого выражения заменой i на —i. Поэтому ^a(s) = (K7/p)2sin[(a—г)ф]/з!паф. (5.4) *) См, примечание на с, 363,
§5. Явные выражения 367 Корни знаменателя Sf, s2, ... являются нростыми, и, следова- тельно, существует разложение на простейшие дроби вида (^>'т^=Л + В* + Г^+...+7^ <5.5> В принципе мы должны рассматривать только те корни sv, кото- рые не являются в то же время и корнями числителя, но если sv—корень числителя, то Uz(s) будет непрерывна при s = sv, и, значит, pv = 0. Стало быть, такие взаимно сокращающиеся корни не дают никакого вклада в правую часть, и нет никакой необхо- димости рассматривать их отдельно. Корни Si, .. ., sa-i соответствуют, очевидно, значениям <pv = *= nv/a при v=l, а—1, так что sv = 1/[2Кpq cos (Jtv/a)]. (5.6) Это выражение теряет смысл, когда v = a/2 и а четно, но в этом случае <pv будет также корнем числителя и этот корень должен быть отброшен. Будучи собственным, соответствующий член в окон- чательном выражении пропадает. Чтобы вычислить pv, умножим обе части (5.5) на sv—s и устремим s к sv. Вспоминая, что sinaq)v = 0 и cos#cpv = l, по- лучаем Pv = (Кq/p)z sin Z(pv • lim [(s—sv)/sin aq>]. S->SV Последний предел определяется при помощи правила Лопиталя и дифференцирования (5.2), что дает pv = а"1 • 2 Kw (l/~q7p)* sin zcpv • sin (pv • s®. Из разложения правой части (5.5) в геометрический ряд мы получаем для n> 1 иг, п = 2 PvS;n-1 = <г-12 V"pq (V"qi~p)z 2 «v n+1 • sin <pv • sin z<pv V=1 V=1 и окончательно a-1 м21 „ = a~12np^n~2'>/2q<n+z^2 2 cos”-1 (nv/a) sin (nv/a)sin (nzv/a). (5.7) V=1 Итак, мы вывели явную формулу для вероятности разорения при n-м испытании. Она восходит к Лагранжу и многократно выводи- лась классиками х), однако продолжает перестирываться и в совре- *) Элементарный вывод, основанный на тригонометрической интерполяции, см. в работах Эллиса (Ellis R. Е., Cambridge Math. J., 4 (1844); Ellis R. E., Col- lected works, Cambridge and London, 1863),
368 Гл. XIV. Случайное блуждание и задачи о разорении менной литературе. Интересно, что метод отражения приводит к другому явному выражению для uz,n — через биномиальные коэф- фициенты (задача 21). Другой метод вывода (5.7) будет описан в гл. XVI,3. Переходя к пределу при а-> оо, получаем вероятность того, что в игре против бесконечно богатого соперника игрок с начальным капиталом z будет разорен при n-м испытании. (См. задачу 13.) Из вида суммы в (5.7) ясно, что члены, соответствующие v=k и v=^a—k, равны по абсолютной величине; они имеют один и тот же знак, когда п и z—числа одинаковой четности, и взаимно унич- тожаются в противном случае. Следовательно, при п—z нечетном а при п—z четном и п>\ uZj п = a“12"+1p('z-2)/2^n+2;)/2 2 cos'2"1 (nv/a) sin (jcv/a) sin (nzv/a), v<a/2 (5-8) причем суммирование ведется по всем положительным целым чис- лам v, меньшим а/2. Представление в таком виде более естественно, чем (5.7), поскольку коэффициенты cos (n;v/a) образуют убывающую последовательность, и поэтому для больших п существенным явля- ется только первый член. § 6. связь С ДИФФУЗИОННЫМИ ПРОЦЕССАМИ Этот параграф посвящен неформальному обсуждению случайных блужданий, в которых длина б отдельных шагов мала, но шаги столь быстро следуют друг за другом, что движение представляется практически непрерывным. Переход к пределу приводит к вине- ровскому процессу (броуновскому движению) и другим диффузион- ным процессам. Такая тесная связь между этими процессами и случайными блужданиями очень способствует пониманию обоих этих объектов х). Задачу здесь можно сформулировать и в матема- тических, и в физических терминах. Лучше всего начать с неограниченного случайного блуждания, начинающегося в нуле. В нем n-й шаг приводит частицу в положение Sn, где Sn = Xi+...+Xn — сумма п независимых случайных вели- чин, каждая из которых принимает значения +1 и —1 с вероятно- стями р и q соответственно. Поэтому E(Sn)=(p—q)n9 Var(Sn)==4pqn. (6.1) На рис. 4 в гл. II 1,6 представлены первые 10 000 шагов такого случайного блуждания с p=q= 1/2; чтобы уместить его график на 1) Этот подход был плодотворным и исторически, Он был сполна исполь- зован (хотя и с эвристических позиций) Л. Б ателье, работа которого вдохно- вила А. Н. Колмогорова на развитие формальных оснований теории марков- ских процессов. См., в частности, Bachelier L., Calcul des probability, Paris, ‘Gauthier-Villars, 1912.
§6. Связь с диффузионными процессами 369 странице книги, пришлось выбрать подходящие масштабы для обеих осей. Теперь мы пойдем дальше и представим себе запечатлев- ший случайное блуждание кинофильм. Предположим, что он должен длиться 1000 с (почти 17 минут). Для того чтобы это соответствовало миллиону шагов, необходимо, чтобы случайное блуждание происхо- дило со скоростью один шаг в миллисекунду, и это фиксирует шкалу времени. Какую же величину шага должны мы выбрать для блужда- ния, чтобы быть вполне уверенными, что запись его поместится на экране заданной высоты? Итак, мы рассматриваем вместо Sn вели- чины 6Sn, где б означает длину отдельного шага. Теперь Е (6Sn)= (р—?)бп, Var (6Sn)=4pq62n, (6.2) и из центральной предельной теоремы ясно, что наш фильм бу- дет возможен только в том случае, если при п—\ 000 000 обе ве- личины х) (6.2) будут меньше высоты экрана. (Здесь подразумева- ется, что мы пользуемся фиксированной единицей измерения, скажем дюймами или футами, как для экрана, так и для величины отдельных шагов.) Но если p^=q и б/г сравнимо с высотой экрана, то будет неотличимо от нуля и фильм покажет нам линейное движе- ние без видимых случайных флуктуаций. Характер случайного блуж- дания может быть выявлен лишь тогда, когда б2/г имеет умеренную положительную величину, а это возможно только при р—q, сравни- мом с б. Если бы вопрос был чисто математическим, мы заключили бы, что желаемое графическое представление невозможно, если только не выполняется условие p=q, однако с физической точки зрения ситуация выглядит совершенно иначе. В броуновском движении мы наблюдаем двигающиеся случайным образом взвешенные в жидкости частицы, и естественно возникает вопрос: можно ли интерпретиро- вать это движение как результат огромного числа столкновений с более мелкими частицами в жидкости? Конечно, предполагать, что столкновения происходят через равные интервалы времени и что каждое столкновение вызывает перемещение, в точности равное ±б,— это сверхупрощение. Во всяком случае, для начала мы будем считать, что столкновения управляются испытаниями Бернулли, и посмотрим, совместимо ли с этой картиной наблюдаемое движение частиц. Из реальных наблюдений мы находим среднее смещение с и дисперсию D за единичный интервал времени. Обозначим через г (неизвестное) число столкновений за единицу времени. Тогда мы приближенно должны иметь (р—bpq№r=D. (6.3) В моделирующем эксперименте не наблюдалось бы никаких случай- ных флуктуаций, если бы оба условия (6.3) не выполнялись при х) Точнее, первая из них и корень квадратный из второй,— Прим, перев.
370 Гл. XIV. Случайное блуждание и задачи о разорении £>>0. Вполне мыслим эксперимент с /?=0,6 и 8r= 1, однако в нем дисперсия была бы столь малой, что движение казалось бы детерми- нированным: группа частиц, сначала близких друг к другу, так и оставалась бы вместе, как если бы была твердым телом. По существу те же рассуждения применимы и ко многим другим явлениям в физике, экономике, теории обучения, эволюционной теории и т. д., когда медленные флуктуации состояния системы интерпретируются как результат огромного числа последователь- ных малых изменений, вызванных случайными воздействиями. Простая модель случайного блуждания не представляется реалистич- ной ни в одном конкретном случае, но, к счастью, ситуация здесь подобна той, что имеет место в центральной предельной теореме. Характер отдельных изменений не будет играть никакой роли уже при удивительно слабых условиях, ибо наблюдаемый эффект будет зависеть лишь от их математических ожиданий и дисперсий х). При таких обстоятельствах естественно принять в качестве универ- сального прототипа простую модель случайного блуждания. Итак, в качестве подготовки к более глубокому изучению раз- личных стохастических процессов естественно рассмотреть случай- ные блуждания, в которых длина б отдельных шагов мала, число г шагов за единицу времени велико, ар — q мало, причем соотноше- ние между ними таково, что справедливо (6.3) (где с и D > 0 — заданные постоянные). Понятия «мало» и «велико» строго не опре- делены и в практических применениях должны варьироваться * 2). Аналитически проблема формулируется следующим образом. Каждому выбору б, г и р соответствует конкретное случайное блуж- дание. Спрашивается, что произойдет в пределе, когда б -> 0, г->оо, и р -> 1 /2 так, что (р—q)Sr -> с, bpq&r -> D. (6.4) Тут возможны два подхода. Если мы располагаем явными вы- ражениями для нужных нам вероятностей, то можем непосредст- венно перейти к пределу. Мы продемонстрируем этот метод, по- скольку он проливает новый свет на нормальное приближение и предельные теоремы, выведенные в гл. III. Однако возможности этого метода ограничены, ибо он не годится для обобщений. Более х) Это так называемый принцип инвариантности, впервые установленный М. Донскером. Подробное изложение этого вопроса см. в книге Биллингсли П. Сходимость вероятностных мер.— М.: Наука, 1977.— Прим, перев. 2) Число молекулярных толчков в единицу времени находится за пределом воображения. В противоположность этому в эволюционной теории рассматрива- ются небольшие изменения от одного поколения к другому, и разделяющее два поколения время по обыденным стандартам отнюдь не является малым. Число рас- сматриваемых поколений также не является фантастическим, но может состав- лять многие тысячи. Здесь дело в том, что этот процесс протекает так, что изме- нения кажутся практически непрерывными, и диффузионная модель с непрерыв- ным временем предпочтительнее модели случайного блуждания.
§ 6. Связь с диффузионными процессами 371 плодотворным будет начать с разностных уравнений, описываю- щих случайные блуждания, и вывести из них предельные диффе- ренциальные уравнения. Оказывается, что эти дифференциальные уравнения описывают вполне определенные стохастические процес- сы, зависящие от непрерывного временного параметра. То же справедливо и относительно различных очевидных обобщений этих дифференциальных уравнений, так что второй метод приводит к важному общему классу диффузионных процессов. Чтобы описать прямой метод в простейшем случае, будем по- прежнему обозначать через {Sn} обычное случайное блуждание а единичными шагами и положим ^,n=P{Sn=^}. (6.5) В нашем ускоренном блуждании n-й шаг произойдет в момент вре- мени nlr, а положением частицы в этот момент будет Sn8=k8. Мы интересуемся вероятностью найти частицу в данный момент t в окрестности заданной точки х и поэтому должны изучать асимпто- тическое поведение vk*n, когда >оо и а—>оо таким образом, что п/г^- t и £6->х. Событие {Sn=k} требует, чтобы п и k были числами одинаковой четности, и происходит, когда ровно (п+£)/2 из первых п шагов направлены вправо. Стало быть, из теоремы Муавра — Лапласа мы заключаем, что при переходе к пределу у ~ 1 A?~[(n + fe)/2 -ир]2/(2/гр<7) 1 p_-[k-n(p-q)Y/^npq) 1 п У 2nnpq У 2nnpq ~___2L_ WZ) (6 6) У 2nDt где знак ~ означает, что отношение величин стремится к единице. Поскольку vk% п есть вероятность того, что Sn6 находится между k8 и (&+2)6, а этот интервал имеет длину 26, мы можем сказать, что отношение (26) локально измеряет вероятность на единицу дли- ны, т. е. является плотностью вероятности. Из второго соотношения (6.6) вытекает, что отношение yfe>n/(26) стремится к v (/, х) = (1/У2лО1) e-(*-ct^DtK (6.7) Отсюда следует, что суммы вероятностей п можно аппроксимиро- вать интегралами от v(t, х), и наш результат может быть перефор- мулирован следующим образом: при выбранном нами переходе к пределу 3 Р {а < S„6 < (1/К2ЙО?) dx. (6.8) а Входящий сюда интеграл можно выразить через функцию нормаль- ного распределения и (6.8) в действительности является лишь
372 Гл. XIV. Случайное блуждание и задачи о разорении вариантом записи предельной теоремы Муавра — Лапласа для биномиального распределения. Более интересен подход, основанный на соответствующих раз- ностных уравнениях. Если рассмотреть положение частицы при n-м и (п-Н)-м испытаниях, то будет очевидно, что вероятности удовлетворяют разностным уравнениям =pvk-u„ + quk+un. (6.9) Умножая это равенство на 26, мы видим (как следует из нашего пре- дыдущего результата), что у(/, х) должно быть приближенным решением разностного уравнения y(/+r”1, x)=pv(t, х—8)+qv(t, х+6). (6.10) Поскольку v имеет непрерывные производные, мы можем разло- жить члены в этом равенстве в ряды Тейлора. Пользуясь приближе- нием первого порядка в левой части и второго порядка — в правой, мы получаем (после сокращения главных членов) . (6.Н) dt дх 1 2 дх2 1 ' ' При переходе к пределу опущенные нами члены устремятся к нулю и (6.11) превратится в ЛЦЛх) 1 (6.12) dt дх 1 2 дх2 ' 1 Это частный вид уравнения диффузии, известный также под назва- нием уравнения Фоккера — Планка. Наши выкладки были исключи- тельно формальными и эвристическими, однако не будет неожидан- ным, что функция v из (6.7) действительно удовлетворяет дифферен- циальному уравнению (6.12). Более того, можно показать, что (6.7) представляет собой единственное решение уравнения диффу- зии, обладающее очевидными свойствами, обусловленными вероят- ностной интерпретацией. Уравнение диффузии (6.12) можно обобщить, допустив, что коэффициенты с и D зависят от х и t. Кроме того, у него есть очевидные аналоги в многомерном случае, и все эти обобщения могут быть выведены непосредственно из общих вероятностных постулатов. Этот вопрос будет обсуждаться в гл. X тома 2; здесь же мы долж- ны довольствоваться краткими и эвристическими указаниями на связь между случайными блужданиями и общей теорией диффу- зии. В качестве второго примера мы рассмотрим вероятности разоре- ния uZ' п, обсуждавшиеся в предыдущих двух параграфах. Отве- чающие им разностные уравнения (4.1) отличаются от (6.9) тем, что
§ 6. Связь с диффузионными процессами 373 коэффициенты р и q в них меняются местами г). Формальные выкладки, указанные в (6.11), приводят теперь к уравнениям диф- фузии, получающимся из (6.12) при замене —с на с. При нашей предельной процедуре мы переходим от вероятностей uz, п к удовлет- воряющей модифицированному уравнению диффузии функции u(t, £), которая по вероятностному смыслу подобна uz* п: в диффузион- ном процессе, начинающемся в точке £>0, вероятность того, что частица попадет в нуль до момента достижения точки а > £ и что это событие произойдет в интервале времени /1<7<72, дается интегралом от u(i, £) по этому интервалу. Формальные вычисления выглядят следующим образом. Для uz,n у нас есть явное выражение (5.8). Поскольку z и п должны быть числами одинаковой четности, то uz> п соответствует интервалу между п/г и (п+2)/г, и мы должны вычислить предел отношения uz, пг/2 при г-^оо и 6->0 в соответствии с (6.4). Длина интервала а и началь- ное положение z должны быть подобраны так, чтобы получить в пределе а и £. Таким образом, z ~ Ш и я ~ а/б. Теперь легко получить пределы для отдельных множителей в (5.8). Из первого соотношения (6.4) мы получаем, что 2р ~ l+c6/D и 1—cb/D\ из второго соотношения (6.4) видим, что б2г-> ZX Стало быть, (4р^)«/2 (qlpyi2 ~ (1 — с262/2Э2)Л//2 (1 —2сб/Пр/<2б)~ e-c*tK2D) ,e-rtjD. (6.13) Аналогично для фиксированного v cos” (улб/а) ~ [1— v2jr262/(2a2)]Zr ~ e-^wt^2a2K (6.14) Наконец, sin vtt6/a ~ vn6/a. Подстановка полученных выражений в (5.8) формально приводит к результату и (/, g) = jtDa"’2e“(<?/+2^/(2Z)) 2 v£~v2^DZ/(2a2>sin (ft£v/a). (6.15) V=1 (Поскольку этот ряд сходится равномерно, нетрудно показать законность наших формальных выкладок.) В физической теории диффузии формула (6.15) называется формулой Фюрта для первого прохождения, (Относительно предельного случая а=оо см. задачу 14. Другую форму (6.15) см. в задаче 22.) г) Причина этого состоит в том, что в uz, п переменная г означает на- чальное положение, тогда как вероятность vk,n относится к положению в те- кущий момент времени. В терминологии, которая будет введена в томе 2, вероятности, зависящие от начального положения, удовлетворяют обратным уравнениям, а остальные — прямым уравнениям (или уравнениям Фоккера — Планка). В физике последние иногда называются уравнениями неразрывности, С такой же ситуацией мы столкнемся в гл. XVII.
374 Гл. XIV. Случайное блуждание и задачи о разорении § 7*). СЛУЧАЙНЫЕ БЛУЖДАНИЯ НА ПЛОСКОСТИ И В ПРОСТРАНСТВЕ В двумерном случайном блуждании частица передвигается единичными шагами в четырех направлениях, параллельных осям х и у. Для выходящей из начала координат частицы возможными положениями будут все точки плоскости с целочисленными коорди- натами. Каждое положение имеет четыре соседних. Аналогично в трех измерениях каждое положение имеет шесть соседних. Случай- ное блуждание определяется выбором соответствующих четырех или шести вероятностей. Для простоты мы будем рассматривать только симметричный случай, в котором все направления равнове- роятны. Сложность задач здесь намного выше, чем в одномерном случае, ибо теперь области, в которых происходит движение ча- стицы, могут иметь произвольную форму и роль экранов играют границы сложного вида. Мы начнем с интересной теоремы, принадлежащей Пойа г). Теорема. В одномерном и двумерном симметричных случайных блужданиях частица с вероятностью единица рано или поздно (а поэтому и бесконечное число раз) возвратится в свое начальное положение. Однако в трехмерном случае вероятность этого меньше единицы и равна примерно 0,35. (Среднее число возвращений равно тогда 0,652^(0,35)^=0,35/0,65^0,53.) Прежде чем доказывать эту теорему, приведем две другие ее формулировки, также принадлежащие Пойа. Прежде всего, почти очевидно, что из этой теоремы вытекает, что в одномерном и в двумер- ном случаях с вероятностью 1 частица бесконечное число раз прой- дет через каждое возможное положение, однако в трехмерном слу- чае это неверно. Таким образом, для двух измерений в известном смысле справедливо утверждение «все дороги ведут в Рим». С другой стороны, рассмотрим две частицы, совершающие неза- висимые симметричные случайные блуждания, причем перемещения их происходят одновременно. Встретятся ли они когда-нибудь? Чтобы упростить изложение, мы определим расстояние между двумя возможными положениями как наименьшее число шагов, ведущих из одного положения в другое. (Это расстояние равно сумме абсолютных величин разностей координат.) Если две частицы продвигаются на один шаг каждая, то расстояние между ними либо останется тем же, либо изменится на две единицы, и поэтому расстоя- ние между частицами будет либо всегда четным, либо всегда нечет- ным. Во втором случае наши две частицы никогда не смогут занять одно и то же положение. В первом случае легко видеть, что веро- *) Этот параграф посвящен специальному вопросу и может быть опущен при нервом чтении. £) Polya G., Uber eine Aufgabe der Wahrscheinlichkeitsrechnung betreffend die Irrfahrt in Strassennetz, Mathematische Annalen, 84 (1921), 149—160. Числен- ное значение 0,35 было найдено в работе Мак-Кри и Уиппла (McCrea W. Н., Whipple F. J. W., Random paths in two and three dimensions, Proceedings of the jRoyal Society of Edinburgh, 60 (1940), 281—298).
§ 7. Случайные блуждания на плоскости и в пространстве 375 ятность их встречи на п-м шаге равна вероятности того, что первая частица за 2п шагов достигнет начального положения второй час- тицы. Следовательно, наша теорема утверждает, что в двумерном (но не в трехмерном) случае две частицы наверняка бесконечное число раз будут занимать одно и то же положение. Если начальное расстояние между двумя частицами нечетно, то аналогичное рассуж- дение показывает, что они будут бесконечно много раз занимать соседние положения. Если назвать это встречей, то наша теорема утверждает, что в одномерном и двумерном случаях две частицы с достоверностью встретятся бесконечное число раз, однако в трехмер- ном случае они с положительной вероятностью никогда не встре- тятся. Доказательство. Для одномерного случая теорема была доказана в примере гл. XIII, 4, б) при помощи метода рекуррентных событий. Доказательство для двумерного и трехмерного случаев проводится примерно так же. Пусть ип — вероятность того, что n-е испытание приведет частицу в начальное положение. Согласно теореме 2 гл. XIII,3, нам надо доказать, что в двумерном случае ряд 2 ип. расходится, тогда как в трехмерном случае 2 ип ~ 0, 53. В двумер- ном случае возвращение в начальное положение возможно только тогда, когда количества шагов в положительных направлениях осей х и у равны соответственно количествам шагов в отрицатель- ных направлениях этих осей. Следовательно, цп=0, если п нечет- но, и (мы пользуемся полиномиальным распределением; см. формулу (9.2) гл. VI) _ 1 у (2n)l _ 1 /2п\ у и2п —рт Zj k\k\(n—k)\(n — k)\ ~ W \ п ) 2- k-0 v z /г =0 Согласно формуле (12.11) гл. II, правая часть равна 4~2/г Формула Стирлинга показывает теперь, что и2п является величи- ной порядка 1/п, так что ряд ^и2п, как и утверждалось, расхо- дится. Для трехмерного случая аналогично находим /п\2 (£)• (7Л> 2п\2 п ) • 2п f-*j\j\k\k\ (n—j—k)\(n—j—k)r 1 7 / > k где суммирование проводится по всем j и k, таким, что / + k п. Легко убедиться, что _ 1 /2п\у(1 п! р рз. 2n 22« I п )^ъ\3nj\k\(n—j—fe)!( ' > Внутри скобок стоят члены триномиального распределения, и мы знаем, что в сумме они составляют единицу. Следовательно, сумма их квадратов не превосходит максимального из членов в скобках,
376 Гл. XIV. Случайное блуждание и задачи о разорении а последнему соответствуют значения / и k, равные примерно п/3. Формула Стирлинга показывает, что этот максимум имеет порядок величины п*"1, и поэтому и2п имеет величину l/j/"/i3, так что ряд ^и2п, как и утверждалось, сходится. ► Мы завершаем этот параграф еще одной задачей, которая обоб- щает понятие поглощающего экрана. Рассмотрим двумерный случай, в котором вместо интервала О^х^я у нас имеется плоская область D, т. е. набор точек с целочисленными координатами. Каждая точ- ка имеет четыре соседних, однако у некоторых точек из D одна или более соседних точек лежат вне D. Такие точки образуют границу области D, а все остальные ее точки называются внутренними. В одномерном случае границу образуют два экрана, и наша за- дача состояла в нахождении вероятности того, что, выходя из z, частица достигнет граничной точки х=0 до попадания в точку х=а. Теперь по аналогии мы интересуемся вероятностью того, что час- тица достигнет определенного участка границы до того момента, как она попадет в какую-либо граничную точку, не принадлежа- щую этому участку. Это означает, что мы разбиваем все граничные точки на два множества В' и В". Если (х, у) является внутренней точкой, то мы ищем вероятность того, что выходящая из (х, у) час- тица достигнет какой-нибудь точки из В' ранее, чем любой точки из В". В частности, если В' состоит из одной-единственной точки, то &(х, у) будет вероятностью того, что частица рано или поздно будет поглощена в этой точке. Пусть (х, у) — некоторая внутренняя точка. Первый шаг пере- водит частицу из (х, у) в одну из четырех соседних ей точек (х±1, у), (х, у±1), и если все четыре из них суть внутренние точки, то, оче- видно, и(х, у)= (l/4)lu(x+l, у)+и(х— 1, #)+«(%, г/+1)+и(х, у— 1)]. (7.4) Это и есть разностное уравнение, которое появляется здесь вмес- то (2.1) (при p=q=l/2). Если (х+1, у) является граничной точкой, то ее вклад и (х+1, у) следует заменить на 1 и 0 в соответствии с тем, принадлежит ли (х+1, у) множеству В' или В". Следователь- но, (7.4) будет справедливо для всех внутренних точек, если мы бу- дем считать, что и (%, ц) = 1 для граничной точки (g, т]) из В' и u(g, Т1)=0 для граничной точки из В", Это соглашение играет здесь роль граничных условий (2.2). Итак, мы получили систему линейных уравнений (7.4) для не- известных и (х, у); каждой внутренней точке соответствуют в ней одно неизвестное и одно уравнение. Эта система неоднородна, по- скольку имеется хотя бы одна граничная точка (g, rj) из В', привно- сящая в правую часть вклад 1/4. Если область D конечна, то урав- нений у нас столько же, сколько и неизвестных, и известно, что такая система имеет единственное решение тогда и только тогда, когда соответствующая однородная система (с и(£, ц)=0 для всех
§ 8. Обобщенное одномерное случайное блуждание 377 граничных точек) не имеет ненулевых решений. Но и(х, у) является средним арифметическим четырех соседних значений и(х±Л, у), и(х, у±1) и не может быть больше (а также меньше) всех этих зна- чений. Иначе говоря, во внутренних точках и(х, у) не имеет ни мак- симума, ни минимума в строгом смысле, и наибольшее и наименьшее ее значения достигаются в граничных точках. Следовательно, если все граничные значения равны нулю, то таковы же значения и(х, у) и во всех внутренних точках, что доказывает существование и един- ственность решения (7.4). Поскольку граничные значения равны О или 1, все значения и(х, у) лежат между 0 и 1, как и требуется для вероятностей. Как мы увидим из общей теоремы для бесконечных цепей Маркова, эти утверждения справедливы и для случая беско- нечных областей х). § 8*). ОБОБЩЕННОЕ ОДНОМЕРНОЕ СЛУЧАЙНОЕ БЛУЖДАНИЕ (ПОСЛЕДОВАТЕЛЬНЫЙ АНАЛИЗ) Вернемся теперь к одномерному случаю, отказавшись от огра- ничения, что частица движется единичными шагами. Вместо этого частица на каждом шаге будет иметь вероятность ph перейти из точки х в точку x+k, где целое k может быть нулем, положитель- ным или отрицательным числом. Мы будем рассматривать следую- щую задачу о разорении. Частица выходит из точки z, такой, что Q<Z<.a\ мы ищем вероятность uz того, что частица достигает ка- кой-либо точки раньше, чем любой из точек х^а. Иначе гово- ря, после и-го испытания частица будет находиться в точке х— =z+Xi+X2+. . .Хп на оси х, где {Xfe} — взаимно независимые случайные величины с общим распределением {pv}; процесс оста- навливается, когда впервые будет выполнено либо неравенство Х1+. . . + Х71^—z, либо неравенство Хх+. . . + Хп^а—z. Эта задача привлекла широкий интерес в связи с последователь- ным анализом. Там Xfe представляют некоторые характеристики вы- борок или наблюдений. Измерения производятся до тех пор, пока сумма Х1+. . . + Xfe не выйдет за пределы двух заранее определен- ных границ (наших —z и а—z). В первом случае эта процедура при- водит (если следовать специальной терминологии) к тому, что ги- потеза отклоняется, а во втором случае — к тому, что она прини- мается * 2). 2) Явные решения известны лишь для немногих случаев и имеют, как правило, очень сложный вид. Решения для случаев прямоугольных областей, бесконечных полос и т. д. можно найти в указанной в предыдущем примечании статье Мак-Кри и Уиппла. *) Материал этого параграфа в дальнейшем не используется. 2) Общая теория последовательных статистических процедур была развита Абрахамом Вальдом во время второй мировой войны в связи с важными практиче- скими задачами. Ее современное изложение можно найти в ряде курсов математи- ческой статистики. Описанная в примере схема Бартки относится к 1943 г. и яв«
378 Гл. XIV. Случайное блуждание и задачи о разорении Пример, а) В качестве иллюстрации возьмем предложенную Бартки многовыборочную схему контроля. Чтобы проверить пар- тию изделий, производятся выборки объема Af, которые и подвер- гаются экспертизе. Предполагается, что эти выборки стохастически независимы и что число дефектных изделий в каждой из них имеет одно и то же биномиальное распределение. Допускается наличие одного дефектного изделия на выборку, и мы положим Xft+1 рав- ным числу дефектных элементов £-й выборки. Тогда для и = /\ = 0 для х <—1. Процедурное правило состоит в следующем. Извлекается первая выборка, и если она не содержит ни одного дефектного изделия, то принимается вся партия; если число дефектных образцов в ней превосходит а, то вся партия бракуется. В любом из этих случаев процесс прекращается. Однако если число z дефектных изделий ле- жит в интервале I^z^yz, то процедура извлечения выборок про- должается описанным образом до тех пор, пока сумма величин остается между 1 и а. Рано или поздно она либо обратится в нуль, и тогда партия принимается, либо станет и тогда партия бра- куется. ► Предположим, не теряя общности, что шаги возможны как в по- ложительном, так и в отрицательном направлениях. В противном случае мы имели бы либо цг=0, либо uz=i для всех z. Вероят- ность разорения на первом шаге, очевидно, равна г г = p~z-\~ P-z-l + Р-г-2+ • • • (8.1) (величина, которая может быть равна нулю). Случайное блуждание продолжается только в том случае, когда частица перемещается в положение х, Q<Zx<Za\ вероятность скачка из z в х равна px~z, и вероятность последующего разорения составляет тогда их. Поэтому «2 = ±ихРх-г + гг. (8.2) Мы снова имеем здесь а—1 линейных уравнений для а—1 не- известных uz. Эта система неоднородна, поскольку по крайней мере при z=\ вероятность отлична от нуля (ибо возможны шаги в от- рицательном направлении). Чтобы доказать, что линейная система (8.2) имеет единственное решение, мы должны доказать, что соот- ляется, по-видимому, самой первой последовательной процедурой, предложенной в литературе. [Подробнее об этом см. книги Вальд А. Последовательный анализ.— М.: Физматгиз, 1960; Ширяев А. Н. Статистический последовательный анализ.— 2-е изд., перераб.—М.; Наука, 1976,— Перев.]
§ 8. Обобщенное одномерное случайное блуждание 3794 ветствующая однородная система а-1 Uz~ 2 ^xPx—z (8.3)> х=1 не имеет ненулевых решений. Предположим (для сокращения числа появляющихся в доказательстве индексов), что p_i=£0 (однако те же рассуждения применимы и при иных положительных членах с отрицательным индексом). Допустим теперь, что uz удовлетворяет (8.3), и обозначим через М максимум значений uz. Пусть иг=М. Поскольку сумма всех коэффициентов px_z в (8.3) равна единице, то равенство это возможно при z=r только тогда, когда те из их, ко- торые действительно входят в правую часть (с положительными коэф- фициентами), равны М и если коэффициенты при них в сумме дают единицу. Следовательно, иг_1=М, и, рассуждая таким же образом, получаем, что иг_2=иг_3=- • ^=и1=М. Однако при z=l сумма коэффициентов рх_г в (8.3) меньше единицы, так что М должно быть равно нулю. Отсюда следует, что (8.2) имеет единственное решение, так что наша задача вполне определена. Снова упростим запись, введя гра- ничные условия f 1, если х О, = L М х (0, если х^а. Тогда (8.2) можно переписать в виде иг = ^ихрх.г, (8.5), и суммирование теперь ведется уже по всем х (слагаемые при х^а не вносят никакого вклада в силу второго условия из (8.4); в силу первого условия слагаемые для дают в сумме rz). При больших а непосредственное решение а—1 линейного урав- нения громоздко, и лучше воспользоваться методом частных реше- ний, аналогичным процедуре § 2. Он хорошо работает, когда рас- пределение вероятностей {ph} содержит сравнительно немного по- ложительных членов. Предположим, что отличны от нуля только pk при —v^T^Cp, так что наибольшие возможные скачки в положи- тельном и отрицательном направлениях суть р и v соответственно. Характеристическое уравнение 2^ = 1 (8.6). эквивалентно алгебраическому уравнению степени v+p. Если о — корень (8.6), то uz—gz будет формальным решением (8.5) для всех z> однако это решение не удовлетворяет граничным условиям (8.4). Если (8.6) имеет p+v различных корней оь о2, . . ., то линейная ком- бинация
380 Гл. XIV. Случайное блуждание и задачи о разорении снова будет формальным решением (8.5) при всех г, и мы должны подобрать постоянные Ak так, чтобы удовлетворялись граничные условия. Далее, при 0<Zz<Za в (8.5) входят лишь значения х из ин- тервала —v+l^x^a+pt—1- Поэтому достаточно удовлетворить граничным условиям (8.4) только для х=0, —1, —2, . . ., —v+1 и х=а, а+1, . . ., а+р—1, так что всего мы имеем p+v условий. Если oh—двойной корень (8.6), то мы теряем одну постоянную, но в этом случае легко видеть, что еще одним формальным решением бу- дет uz=zozk. В любом случае p+v граничных условий определяют p+v произвольных постоянных. Пример, б) Предположим, что каждый отдельный шаг переводит частицу в одно из четырех ближайших положений и что p~2=P-i= =Pi=P2=1/4. Характеристическое уравнение (8.6) здесь имеет вид а“2+а"1+а+а2=4. Положим /=оН-ог~1: при такой подстановке наше уравнение превращается в /2+/=6, корни которого суть Z=2 и /=—3. Разрешая ^о+о-1 относительно о, находим четыре кор- ня о1 = ст2=1, о3 = ~3+^ = аг1, g4 = =+^=gj’1. (8.8) Поскольку Oi — двойной корень, общим решением уравнения (8.5) в нашей случае является = А], + A^z + Л3Оз4- (8.9) Граничные условия и0=и_1=1 и ua=ua+i=0 приводят к четырем линейным уравнениям для коэффициентов Aj и к окончательному решению _ 1 _z_ (2z—a) (og—04) —a (olz~a—сц2~а) m ^^(бг + 2)(а?-о1)-^(аза+2-аГ2)} ’ 1 ' Численные приближения. Найти все корни уравнения (8.6) обычно бывает весьма затруднительно, однако для них можно получить вполне удовлетво- рительные приближения удивительно простым способом. Рассмотрим сперва случай, когда распределение вероятностей {pk} имеет нулевое среднее. Тогда характеристическое уравнение (8.6) имеет двойной корень в точке о = 1 и A-{-Bz является формальным решением (8.5). Конечно, двух постоянных А и В недостаточно для того, чтобы удовлетворялись pi -|-v граничных условий (8.4). Однако если мы определим А и В так, чтобы A-\-Bz обращалось в нуль при ? = я + р1— 1 и было равно 1 при z = 0, то Д + при при а х < а + pi, так что A-\-Bz будет удовлетворять граничным условиям (8.4), в которых знак = заменен на Следовательно, разность A-^Bz— uz будет формальным решением (8.5) с неотрицательными граничными значения- ми, и, стало быть, A-\-Bz—иг^0. Подобным же образом мы можем полу- чить и нижнюю границу для uZt определяя А и В так, чтобы A-{-Bz обра- щалось в нуль при г = ц и в единицу при г = — v+1- Следовательно, а— z « + pi — z — 1 a + v—a-j_.pt — 1 Эта оценка очень точна, когда а велико по сравнению с pi + v. [Конечно» приближение uz к (1—г/я) лучше, однако оно не дает точных границ для^.1
§ 9. Задачи 381 Рассмотрим теперь общий случай, когда среднее распределения {pk} отлично от нуля. Тогда характеристическое уравнение (8.6) имеет в точке о=1 простой корень. Левая часть (8.6) стремится к оо при о—>0 и при о—>оо. При положительных о кривая i/ = 2z?fegft непрерывна и выпукла вниз, и поскольку она пересекает прямую у=1 при о=1, то она пересекает ее еще ровно в одной точке. Стало быть, характеристическое уравнение (8.6) имеет ровно два положительных корня, 1 и Ор Отсюда, как мы уже знаем, следу- ет, что Л+Boi является формальным решением уравнения (8.5), и мы можем применить наши предыдущие рассуждения к этому решению вместо A-^-Bz. Мы находим, что в этом случае a оа+[1-1 2 gl—gl —gl O1—Oj O1 —1 (8.12) так что справедлива следующая теорема. Теорема. Решение нашей задачи о разорении удовлетворяет неравенствам (8.11), если {pk} имеет нулевое среднее, и неравенствам (8.12) в противном слу- чае. Здесь Oj есть единственный отличный от нуля положительный корень (8.6), а р, и —v равны соответственно наибольшему и наименьшему из индек- сов k, при которых р^ #= 0. Пусть = —математическое ожидание выигрыша в единичном ис- пытании (или математическое ожидание длины одного шага). Из (8.6) легко видеть, что Of > 1 при т < 0 и ох < 1 при т > 0. Полагая а—>оо, мы за- ключаем из нашей теоремы, что в игре против бесконечно богатого соперника вероятность окончательного разорения равна единице тогда и только тогда, когда т^О. Продолжительность игры можно исследовать аналогичными методами (ср. задачу 9). § 9. ЗАДАЧИ Замечание. Задачи 1—4 относятся только к § 2 и не требуют никаких вычислений. 1. Найти вероятность того, что в случайном блуждании, начинающемся в нуле, точка х — а > 0 будет достигаться раньше точки х ——b <0. 2. Доказать, что (в обозначениях § 2) а) в случайном блуждании, начинающемся в нуле, вероятность достиже- ния точки х — а > 0 до возвращения в нуль равна р(1—gj; б) в случайном блуждании, начинающемся в точке х — а > 0, вероятность достижения нуля до возвращения в начальную точку равна qqa-i> 3. Вывести из предыдущей задачи, что если q^ р, то в начинающемся в нуле случайном блуждании число попаданий в точку х — а > 0 до первого возвращения в нуль имеет геометрическое распределение со знаменателем 1—qqa-i‘ (Почему необходимо условие q^p?) 4. Используя результаты, полученные в двух предыдущих задачах, дока- зать следующую теорему1). Математическое ожидание числа попаданий в точку х = а > 0 до первого возвращения в нуль равно (p/q)a при р < q и равно 1 при p = q. 5. Рассмотреть задачу о разорении из § 2, 3 для случая видоизмененного х) Поистине удивительные следствия этого результата проявляются лучше всего применительно к безобидным играм. Симметричная монета подбрасывается до тех пор, пока впервые не сравняются суммарные числа гербов и решеток. Игрок получает один цент каждый раз, когда суммарное число гербов будет превосходить суммарное число решеток ровно на т. «Справедливая плата за вступление в игру» равна 1 центу независимо от т. Иное (элементарное) доказательство см. в задачах 1 и 2 гл. ХП, W тома 2.
382 Гл. XIV. Случайное блуждание и задачи о разорении случайного блуждания, в котором частица либо совершает единичный шаг вправо или влево, либо остается на месте с вероятностями а, 0 и у соответ- ственно (а4-0+?=1). (В игровой терминологии это означает, что партия может окончиться вничью.) 6. Рассмотреть задачу о разорении из § 2, 3 для случая, когда в нуле помещен упругий экран (определение см. в § 1). Разностные уравнения для вероятности разорения (поглощения в нуле) и для средней продолжитель- ности игры будут такими же, но уже с другими граничными условиями. 7. Частица при каждом шаге перемещается на две единицы направо или на одну единицу налево с вероятностями р и q соответственно (p-]-q = l). Найти вероятность qz того, что, выходя из точки z > О, частица когда-нибудь достигнет нуля. (Это задача о разорении при игре с бесконечно богатььм противником.) Указание. Аналог уравнения (2.1) приводит к кубическому уравнению, имеющему частное решение qz = 1 и два частных решения вида V, где % удов- летворяет квадратному уравнению. 8. Продолжение1). Показать, что qi равно вероятности того, что в после- довательности испытаний Бернулли суммарное число неудач когда-нибудь будет вдвое больше суммарного числа успехов. (При p — q эта вероятность равна (|/”5—1)/2.) 9. В задаче § 8 для обобщенного случайного блуждания по аналогии с (8.1) положим pz = Pa-z + Pa + i-z+Pa + 2-,?+• • • и обозначим через dz, п вероятность того, что игра продлится ровно п шагов. Показать, что при 1 а-1 ^z, п + 1 ~ dXi nPx-z> х—1 где dZji = rz-]-pz. Исходя из этого, доказать, что производящая функция dz(o) = 2^, п°п является решением системы линейных уравнений а-1 (о) — У dx (о) Px-z = fz + pz- Х = 1 Дифференцируя, вывести отсюда, что средняя продолжительность ez игры будет решением системы уравнений а-1 eZ J ехРх - Z — 1 • Х=1 10. Пусть wZi п (х)— вероятность того, что в случайном блуждании с начальным положением z и поглощающими экранами в точках х = 0 и х = а п-й шаг приводит частицу в точку х. Найти разностные уравнения и гранич- ные условия, которым удовлетворяет wz,n(x). 11. Продолжение. Видоизменить граничные условия на случай двух от- ражающих экранов (т. е. упругих экранов с 6 = 1). 12. Пусть при симметричном случайном блуждании (p — q) частица может находиться в точках 1, 2, .. ., а—1. В нуле расположен поглощающий экран, а на другом конце интервала—отражающий. Найти производящую функцию для времени ожидания поглощения. х) Эта задача была сформулирована Д. Дж. Ньюменом. То, что ее решение является простым следствием предыдущей задачи, заметил У. Во. Читатель может попробовать воспользоваться аналогичным подходом для более общих задач, в которых множитель 2 заменяется каким-то другим рациональным числом. Реше- ние, основанное на иных идеях, предложил Дж. С. Фрэйм; см. Frame J. S., So- lution to problem 4864, Amer. Math. Monthly, 67 (1960), 700—702.
§ 9. Задачи 383 13. Другой вариант записи вероятностей первого достижения. В явной формуле (5.7) для вероятностей разорения устремим а к оо. Показать, что в результате получится 1 rt = 2"p(rt”2)/2(7(n+z)/2 J cos""1 лх-sin лх-sin wcz-dx. о Следовательно, эта формула должна быть эквивалентна (4.14). Проверить это, показав, что удовлетворяются соответствующие разностные уравнения и гра- ничные условия. 14. П родолжение. Моменты первого достижения в диффузии. Показать, что при описанном в § 6 предельном переходе из последней формулы полу- чается выражение (г//2ЙЙ7з)^<2+с^(2П^ для плотности вероятности для времени ожидания поглощения в нуле в диф- фузии, начинающейся из точки z > 0. При p — q этот результат эквивалентен предельной теореме 3 из гл. III, 7. Замечание. В следующих ниже задачах их> п означает вероятность (6.1) того, что в начинающемся в нуле неограниченном случайном блуждании час- тица на n-м шаге попадает в положение х. Принцип отражения (гл. Ill, 1) приводит к иной интерпретации. 15. Метод отражения1). Пусть р = д = 1/2. Обозначим через uz> п (х) ве- роятность того, что в случайном блуждании на (0, оо) с поглощающим экра- ном в нуле и начальным положением z > 0 n-й шаг приведет частицу в поло- жение х > 0. Показать, что uZt n(x) — vx^z> п—vx+zn. (Указание. Показать, что разностное уравнение, соответствующее (4.1), и подходящие граничные условия в этом случае удовлетворяются.) 16. Продолжение. Доказать, что если в точке х = 0 помещен отражаю- щий экран, то uz, п W n~V+ 1, п' 17, Продолжение. Доказать, что если случайное блуждание ограничено интервалом (0, а) и оба экрана являются поглощающими, то U-z, п (^) {^л—z — 2ka, п + z — 2ka, и}, 0 k суммирование производится по всем k, положительным и отрицательным (лишь конечное число слагаемых отлично от нуля). Доказать, что если оба экрана являются отражающими, то уравнение (9.1) остается в силе при замене минуса на плюс и х-{-г на х-\-г—1. 18. Распределение максимумов. Пусть Мп—максимальная абсцисса частицы за первые п шагов симметричного неограниченного случайного блуждания, 1) Задачи 15—17 являются примерами применения метода отражения. Член vx_Zitl соответствует частице в неограниченном случайном блуждании, a vx+z, п~ее «отражению». В (9.1) используются отраженные точки, выхо- дящие из различных положений, полученных повторными отражениями от обеих границ. В задачах 20 и 21 при помощи производящих функций мы получаем общий результат для несимметричного случайного блуждания. В теории дифференциальных уравнений метод отражений всегда связываю! с именем Кельвина. В вероятностной литературе эквивалентный принцип при- писывается Д. Андрэ. (См. примечание к лемме в гл. Ill, 1).
384 Гл. XIV. Случайное блуждание и задачи о разорении начинающегося в нуле. Используя результат задачи 15, показать, что Р {Мп = — vz, n~h vz +1, п- (9-2) 19. Пусть Vx (s) = vx, nsn (см. замечание перед задачей 15). Доказать, что Vx (s) = Vo (s) h~x (s) при x <: 0 и Vx (s) = Vo (s) X~-r (s) при x 0, где (s) и X2 (s) определены формулами (4.8). Более того, Уо (s) = (1—4pqs* 2)~1^2. Замечание. Эти соотношения следуют непосредственно из того факта, что М (s) и Х2 (s) являются производящими функциями времен первого достиже- ния, как это было установлено в конце § 4. 20. Пусть uz, п (х)— вероятность того, что в случайном блуждании в (0, оо) с поглощающим экраном в нуле и начальным положением z п-й шаг приведет частицу в положение х, и пусть С7г (s; х) = 2 “г, п (х) s"- (9.3) п=о Используя результат задачи 19, показать, что Uz (s; х) = Vx_z ($)— (s)V^(s). Получить отсюда, что «г, П (X) = vx-Zt n—tqlpy-Vx+z, П- (9.4) Сравнить с результатом задачи 15 и вывести (9.4) из последнего при помощи комбинаторных методов. 21. Другая формула для вероятности разорения (5.7). Разложив (4.11) в геометрический ряд, доказать, что uz, п~ 2 l^)kaw2ka + z, п 1 {Р1Я)&а Zw2ka—z, п> fe = o k= 1 где wZi п—вероятность (4.14) первого достижения. 22. Показать, что если к выражению для uzn, приведенному в преды- дущей задаче, применить предельный переход из § 6, то плотность вероят- ности для времени поглощения будет равна х) (l//^D?)e-(c/+2^c/(2D> J (B + 2to)e-<S+2ta,2/(2OZ). k — — 00 (Указание. Использовать нормальное приближение для биномиального распре- деления.) 23. Метод восстановления для задачи о разорении 2). Пусть в случайном блуждании с двумя поглощающими экранами uz n и и2>п — вероятности по- глощения на левом и на правом экранах соответственно. Посредством надле- жащей интерпретации доказать справедливость двух следующих уравнений: У-z (S) = uz (s) Vo (s) + f/;(s) V_G(s), Va-z (s) = uz (s) Va (s) + U* (s) Vo (s). Вывести (4.11), разрешив эту систему относительно Uz (s). 24. Пусть uz, п (х) — вероятность того, что выходящая из точки г частица на л-м шаге попадет в точку %, не коснувшись предварительно поглощающих экранов. Показать, что для соответствующей производящей функции Uz (s; х)= г) Совпадение этой новой формулы с предельной формой (6.15) — известный факт теории тэта-функций. См. формулу (5.8) гл. XIX тома 2. 2) Задачи 23—25 содержат новый и независимый вывод основных результатов, относящихся к одномерным случайным блужданиям.
§ 9, Задачи 385 — n (*) s” мы имеем (используя обозначения задачи 23) равенство (s; *) = Vx.z (s) - Uz (s) Vx (s) - U* (s) Vx_a (s). (Здесь не требуется никаких вычислений.) 25. Продолжение. Доказать, что производящую функцию Uz ($; х) из пре* дыдущей задачи можно получить в виде Uz (S',x) — Vx-Z (s) — Ж? (s)—BXl(s)^ где постоянные определяются так, чтобы при z = 0 и г = а выполнялись гра- ничные условия Uz (s\ х) —0. (В случае отражающих экранов граничные усло- вия имеют вид Uq (s; х) = UA (s; х) и Ua (s; х) — U(s; х).) 26. Доказать формулу л п— (2л)~12П р(« + Х)/2^(П-Х)/2 cos„ — Л показав, что удовлетворяется соответствующее разностное уравнение. Вывести отсюда, что л vx(s) = (2^)-1 (Жл/2 ( ™‘х-------at. 1 — 2 у pq • s • cos t 27. Показать, что в трехмерном симметричном случайном блуждании час- тица с вероятностью единица бесконечное число раз пересечет любую фикси- рованную прямую х = ш, у — п. (Указание. Ср. с задачей 5.) 28. В двумерном симметричном случайном блуждании, начинающемся в нуле, вероятность того, что n-й шаг приведет частицу в точку (х, у), равна- л л (2я)“22"л J J (cos ос + cos ₽)л -cos ха-cos yfi-da d$. -л —л Проверить эту формулу и найти ее аналог для трехмерного случая. (Указа- ние. Проверить, что это выражение удовлетворяет соответствующему разност- ному уравнению.) 29. В двумерном симметричном случайном блуждании обозначим череа Dn = x2 + //2 квадрат расстояния частицы от начала координат в момент вре- мени п. Доказать, что E(Dn) = n. (Указание. Вычислить E(D^-i—D^).) 30. Доказать, что в симметричном случайном блуждании в d-мерном про- странстве частица с вероятностью 1 будет бесконечное число раз возвра- щаться в положения, которые уже были ею заняты ранее. (Указание. При каждом шаге вероятность попадания в новое положение не превышает (2d — - l)/(2d).) 31. Показать, что описанный в § 8 метод применим также к производя- щей функции Uz (s) для времени ожидания разорения. 13 № 221
ГЛАВА XV ЦЕПИ МАРКОВА § 1. ОПРЕДЕЛЕНИЕ До сих пор мы занимались главным образом независимыми ис- пытаниями, которые можно описать следующим образом. Задано множество возможных исходов Elt Е2, . . . (в конечном или беско- нечном числе), и каждому из них соотнесена некоторая вероятность ph; вероятности последовательностей исходов определяются по правилу умножения: Р{(Е,0, Eiv •» EJn)}=PioPii -Pin- в те°- рии цепей Маркова мы рассматриваем простейшее обобщение этой схемы, которое состоит в том, что для любого испытания допускается зависимость его от непосредственно предшествующего ему испыта- ния (и только от него). С исходом Ek не связана более фиксирован- ная вероятность pht но зато каждой паре (Е,, Ek) теперь соответ- ствует условная вероятность Pjk\ при условии, что Ej появился в некотором испытании, вероятность появления Ek в следующем ис- пытании равна pjk. Помимо pjk нам должны быть заданы вероят- ности ак исходов Ek в начальном испытании. Чтобы Pjk имели при- писанный им смысл, вероятности последовательностей исходов, соответствующих двум, трем или четырем испытаниям, должны быть определены равенствами р{(£/> р{(£/. Ek> Er)\— ajPjkPkr> Р{(^/> Ek’ ЕГ’ Е\~ ^jPjkPkrPrs< и вообще р{(£/о, £л, £/„)} = «/„Р/о/.Р/.л-Pin-2in-lPin-iin- О О Здесь начальному испытанию присвоен номер нуль, так что испы- тание номер один является вторым. (Это соглашение удобно и — без специального на то указания — уже использовалось в предыду- щей главе.) Некоторые процессы, рассматривавшиеся нами в предыдущих главах, являются цепями Маркова, однако в конкретных случаях часто бывает лучше воспользоваться другими обозначениями и спо- собами описания. Основные результаты настоящей главы касаются существования некоторых пределов и равновесных распределений; эти результаты, конечно же, не зависят от обозначений и примени- мы ко всем цепям Маркова. Примеры, а) Случайные блуждания. Случайное блуждание на прямой является цепью Маркова, однако в этом случае возможные
§ 1, Определение 387 положения естественно представить в виде бесконечной в обе сто- роны последовательности ...» —2, —1, 0, 1, 2, ... . При таком по- рядке переходы будут возможны только между соседними положе- ниями, т. е. Pjfe=O, если &=#/±1. Чтобы воспользоваться нашими нынешними обозначениями, нам пришлось бы расположить целые числа в простую последовательность, скажем 0, 1, —1,2, —2, . . . , и это привело бы к громоздким формулам для вероятностей pJft. То же замечание справедливо и в отношении случайных блужданий в пространствах высшей размерности: для практических вычислений лучше обозначать точки значениями их координат, а для теорети- ческих целей можно пользоваться символикой настоящей главы. б) Ветвящиеся процессы. Вместо того чтобы говорить, что п-е испытание окончилось исходом Ек, в гл. XII, 3 мы говорили, что в п-м поколении имеется k частиц. Мы рассматривали там обычную цепь Маркова, у которой переходная вероятность pJft равна коэф- фициенту при sk в разложении /-й степени (s) заданной произво- дящей функции. в) Урновые модели. Очевидно, что некоторые урновые модели из гл. V, 2 представляют собой цепи Маркова. И обратно, как мы сейчас увидим, каждая цепь Маркова эквивалентна некоторой ур- новой модели. Пусть каждый из имеющихся у состояний цепи индексов пред- ставлен отдельной урной и каждая урна содержит шары с метками £i, £2, ... . Содержимое урн остается фиксированным, но меня- ется от урны к урне; вероятность извлечь из /-й урны шар с меткой Ек равна Pjk. В начальном, или нулевом, испытании в соответствии с распределением вероятностей } выбирается урна. Из этой урны случайным образом извлекается шар, и если он помечен Ej, то сле- дующее извлечение производится из /-й урны и т. д. Очевидно, что при такой процедуре вероятность выборки (£/0,. .., Е/п) дается фор- мулой (1.1). Мы видим, что понятие цепи Маркова не является более общим, чем понятие урновой модели, однако новая символика ока- жется более практичной и более интуитивно ясной. ► Если ah — вероятность появления Ек в начальном (или нулевом) испытании, то мы должны иметь ак^0 и Более того, после появления Ej непременно должно произойти одно из Eh, и поэтому необходимо, чтобы для всех / и k Pji+Pj2+. . . = 1, (Б2) Теперь мы покажем, что для любых чисел ak и pjk, удовлетворяющих этим условиям, формула (1.1) является допустимым определением вероятностей в пространстве элементарных событий, соответствую- щем п+1 испытаниям. Поскольку числа, определяемые по (1.1), неотрицательны, нам нужно доказать только то, что в сумме они составляют единицу. Фиксируем первые /0, /1, . . /n_i и сложим числа (1.1) при всех возможных jn. Используя (1.2) при мы 13*
388 Гл. XV, Цепи Маркова немедленно убеждаемся, что эта сумма равна . .Pjn_2jn_i. Таким образом, сумма всех чисел (1.1) не зависит от п, и, посколь-, ку 2а/о = Ь сумма эта равна единице для всех п. Определение (1.1) формально зависит от числа испытаний, од-, нако наше рассуждение доказывает взаимную согласованность оп- ределений (1.1) при всех п. Например, чтобы получить вероятность события «первые два испытания окончились исходами (£7-, Ек)», мы должны фиксировать jQ=j и j±=k и сложить вероятности (1.1) при всех возможных /2, /3, . . ., /п. Только что мы показали, что эта сумма равна ajpjk и, таким образом, не зависит от п. Это означает, что обычно нет необходимости говорить о полном числе испытаний; событие (£j0, . . ., Е]г) имеет одну и ту же вероятность во всех пространствах элементарных событий для более чем г испытаний. В связи с независимыми испытаниями неоднократно отмечалось, что с математической точки зрения наиболее удовлетворительным будет ввести только одно пространство элементарных событий — неограниченных последовательностей испытаний — и рассматри- вать результат конечного числа испытаний как начальный отрезок бесконечной последовательности. Это утверждение справедливо также и для цепей Маркова. К сожалению, пространства бесконеч- ных последовательностей испытаний выводят изложение за пределы теории дискретных вероятностей, которой мы ограничились в этом томе. Суммируя сказанное выше, получаем в качестве отправного пунк- та следующее определение. Определение. Последовательность испытаний с возможными ис- ходами Ех, Е2, . . . называется цепью Маркова х), если вероятности последовательностей исходов определяются формулой (1.1) через рас- пределение вероятностей {ак} для Ек в начальном (или нулевом) ис- пытании и через фиксированные условные вероятности pjk появле- ния Ек при условии, что в предыдущем испытании появился Ej. Для приложений цепей Маркова удобнее несколько видоизме- ненная терминология. Возможные исходы Ек обычно называются возможными состояниями системы', вместо того чтобы говорить, что n-е испытание окончилось появлением Ек, говорят, что n-й шаг приводит к состоянию Ек или что система попадает в Ek на n-м ша- ге. Наконец, Pjk называется вероятностью перехода из Ej в Ек. Как •обычно, мы считаем, что испытания происходят через равные ин- х) Это нестандартная терминология. Здесь мы рассматриваем только частный класс цепей Маркова, и, строго говоря, здесь и в последующйх параграфах термин «цепь Маркова» должен всякий раз уточняться добавлением слов «со стационар- ными переходными вероятностями». На самом деле общий тип цепей Маркова рассматривается редко. Он будет определен в § 13, где марковское свойство будет обсуждаться в связи с общими стохастическими процессами. Там же читатель най- дет примеры зависимых испытаний, не образующих цепи Маркова.
§ 1. Определение 389 тервалы времени, так что номер шага служит временным парамет- ром. Вероятности перехода pjk будут расположены в матрицу пере- ходных вероятностей 1 Pli Pl2 Р13 ) Р21 Р22 Р2З * ’ * р = Рз1 Р32 Рз2 (1.3) 1 I . . . . . . 1 где первый индекс означает номер строки, а второй — номер столб- ца. Ясно, что Р — квадратная матрица с неотрицательными эле- ментами и единичными суммами по строкам. Такая матрица (ко- нечная или бесконечная) называется стохастической матрицей. Любая стохастическая матрица может служить матрицей пере- ходных вероятностей} вместе с нашим начальным распределением {ah} она полностью определяет цепь Маркова с состояниями Е{, Е2} .... В некоторых частных случаях бывает удобно нумеровать со- стояния, начиная с 0, а не с 1. Тогда к матрице Р следует добавить нулевые строку и столбец. Историческое замечание. Многие задачи, рассматривавшиеся в классической литературе при помощи урновых моделей, представляются теперь при помощи це- пей Маркова частного вида, однако первоначальные методы исследования были совершенно другими. Более того, ряд урновых моделей носят совсем иной характер, ибо в них имеет место эффект последействия, и эта существенная разница в должной мере не была понята. В действительности эта путаница сохранялась долгое время после первооткрывающей работы Маркова. А. А. Марков заложил основания тео- рии конечных цепей Маркова, однако конкретные приложения ограничивались главным образом тасованием карт и лингвистическими задачами. Теоретическое изучение проводилось обычно алгебраическими методами, близкими к описанным в следующей главе. Основы этого подхода изложены в монографии М. Фреше х). Теория цепей с бесконечным числом состояний была введена А. Н. Колмо- горовым * 2). Этот новый подход, изложенный в первом издании настоящей книги, сделал эту теорию доступной более широкому кругу специалистов и привлек вни- мание к множеству ее возможных приложений. С тех пор цепи Маркова стали стандартным элементом теории вероятностей и знакомым инструментом во многих приложениях. Более современные теоретические разработки упоминаются в замечаниях в § И и 12. х) Frechet М., Recherches theoriques modernes stir le calcul des probabilites, t. 2 (Theorie des evenements en chaine dans le cas d’un nombre fini d’etats possibles), Paris, 1938. 2) Kolmogoroff A., Anfangsgriinde der Theorie der Markoffschen Ketten mit unendlich vielen moglichen Zustanden, Математический сборник, н. с., 1 (1936), 607—610. Эта статья не содержит доказательств. Полное изложение см. в работе Колмогоров А. Н., Цепи Маркова со счетным числом состояний, Бюлл. МГУ (А), 1 : 3 (1937), 1—16.
390 Гл. XV. Цепи Маркова § 2. ПОЯСНИТЕЛЬНЫЕ ПРИМЕРЫ (Приложения к классической задаче о тасовании карт см. в §ю.) а) Когда у цепи есть только два возможных состояния Ef и Е2> матрица переходных вероятностей с необходимостью имеет вид Р = Г1— р р 1 I а 1—а! Подобная цепь могла бы быть реализована в следующем мыслен- ном эксперименте. Частица движется вдоль оси х таким образом, что абсолютная величина ее скорости остается постоянной, но на- правление движения может меняться на противоположное. Говорят, что система находится в состоянии Elf если частица движется напра- во, и в состоянии E2i если она движется налево. Тогда р — вероят- ность поворота, когда частица движется направо, а а — вероят- ность поворота при движении налево. (Подробный анализ этой цепи см. в примере гл. XVI, 2,а).) б) Случайное блуждание с поглощающими экранами. Пусть воз- можными состояниями будут £о, Е19 . . £р; рассмотрим матрицу переходных вероятностей “1 0 0 0 ... 0 0 0" q о р 0 ... 0 0 0 о q 0 р ... 0 0 0 Р = • • ... • • 0 0 0 0 ... q 0 р 1 _0 0 0 0 ... 0 0 1J Из каждого «внутреннего» состояния Еи . . ., Е^ возможны пе- реходы в правое и левое соседние состояния (с вероятностями Pi. i+i=P и Pi. i-i=Q)- Однако ни из £0, ни из Ер невозможны пере- ходы в какое-либо иное состояние; система может переходить из од- ного состояния в другое, но коль скоро будет достигнуто или £р, система останется неизменной навсегда. Ясно, что эта цепь Маркова только терминологией отличается от модели случайного блуждания с поглощающими экранами в точках 0 и р, обсуждавшейся в преды- дущей главе. Там случайное блуждание начиналось в фиксирован- ной точке z рассматриваемого интервала. В терминологии цепей Маркова это равносильно выбору такого начального распределе- ния, что az=l (и, следовательно, ах=0 при x=£z). Случайно выбран- ному начальному состоянию соответствует начальное распреде- ление ak = l/ (р+1). в) Отражающие экраны. Интересный вариант предыдущего примера представляет собой цепь с возможными состояниями
§2. Пояснительные примеры 391 £1, . . £р и переходными вероятностями I ~я р 0 0 .. 0 0 0" я 0 р 0 ... 0 0 0 0 я 0 р ... 0 0 0 • • • • ... • • 0 0 0 0 ... q 0 р 1 _о 0 0 0 ... 0 Я р. Эту цепь можно интерпретировать на языке азартных игр, рас- сматривая двух игроков, ведущих игру с единичными ставками и с соглашением, что каждый раз, когда один из игроков проигры- вает свой последний доллар, тот немедленно возвращается ему его противником, так что игра может продолжаться бесконечно. Мы предполагаем, что игроки вместе имеют р+1 долларов, и говорим, что система находится в состоянии Ek, если их капиталы равны k и р—k+l соответственно. Тогда переходные вероятности даются нашей матрицей Р. В терминологии, введенной в гл. XIV, 1, наша цепь представляет собой случайное блуждание с отражающими эк- ранами в точках 1/2 и р+1/2. Аналогичным образом можно рас- сматривать случайные блуждания с упругими экранами. Подроб- ный анализ цепи для случая отражающих экранов читатель найдет в гл. XVI, 3 (см. также пример 7, в)). г) Циклические случайные блуждания. Пусть возможными состо- яниями снова будут £1, Е2, . . ., £р, но теперь мы упорядочим их циклическим образом, так что для Ер соседними состояниями будут Ep-i и Et. Если, как и ранее, система всегда переходит либо в пра- вое, либо в левое соседнее состояние, то строки матрицы Р будут такими же, как в примере б), за тем исключением, что первая строка будет (0, р, 0, 0, . . ., О, р), а последняя (р, 0, 0, 0, . . ., О, р, 0). В более общем случае мы можем допустить переходы между лю- быми двумя состояниями. Пусть ро, <7p-i — соответственно вероятности остаться на месте или передвинуться на 1, 2, . . ., р—1 единиц вправо (причем переход на k единиц вправо — то же самое, что переход на р—k единиц влево). Тогда Р будет циклической мат- рицей ~я« <7i Яг ... <7р-2 <7р- 1 ?о Я1 ... <7р-з <7р-2 р = <7р- 2 Яо- 1 Яг ... <7р-4 • • • • <7р~з 1 Л1 Яг Яг • • • • •. • <7р -1 Q о примере гл. XVI, 2, г). Анализ этой цепи см. в
392 Гл. XV. Цепи Маркова д) Модель Эренфестов для диффузии. Снова рассмотрим цепь с р+1 состоянием £0, £1? .£р, переходы в которой возмож- ны только в правое и левое соседние состояния; на этот раз мы ПОЛОЖИМ Pjt y + 1 — 1 —J/p и Phj- .i = /7p, так что "0 1 0 0 ... 0 0 -• p"1 0 1-р-1 0 ... 0 0 0 2p- 0 1- 2р-1 ... 0 0 • • • • • ... • 0 0 0 0 ... 0 р"1 L° 0 0 0 ... 1 0 * Эта цепь имеет две интересные физические интерпретации. При обсуждении различных задач о возвращении в статистической ме- ханике П. и Т. Эренфесты х) описали мысленный урновый экспе- римент, в котором р молекул распределены по двум сосудам А и В. При каждом испытании случайным образом выбирается одна мо- лекула и перемещается из своего сосуда в другой. Состояние систе- мы определяется числом молекул в А. Предположим, что в некото- рый момент времени в сосуде А находится ровно k молекул. При сле- дующем испытании система переходит в Ек^г или Ek + 1 в зависимо- сти от того, выбрана ли молекула из А или из В; соответствующие вероятности суть kip и (р—fe)/p, и, стало быть, наша цепь действи- тельно описывает эксперимент Эренфестов. Однако нашу цепь мож- но интерпретировать и как диффузию при наличии центральной силы, т. е. как случайное блуждание, в котором вероятность шага вправо меняется вместе с состоянием. Из x=j переход частицы впра- во (влево) будет более вероятен, если j<pl2 (д>р/2); это означает, что частица имеет тенденцию двигаться к точке х=р/2, что соответ- ствует упругой силе притяжения, возрастающей прямо пропорцио- нально расстоянию. (Модель Эренфестов была описана в примере гл. V, 2,в); см. также пример 7, г) и задачу 12.) е) Модель Бернулли — Лапласа для диффузии* 2). Модель, по- хожая на модель Эренфестов, была предложена Д. Бернулли в качестве вероятностного аналога течения двух несжимаемых жид- -1) Ehrenfest Р., Ehrenfest Т., Uber zwei bekannte Einwande gegen das Boltz- mannsche //-Theorem, Physikalische Zeitschrift, 8 (1907), 311—314; Ming Chen Wang, Uhlenbeck G. E., On the theory of the Brownian motion II, Reviews of Mo- dern Physics, 17 (1945), 323—342. Более полное обсуждение см. Кас М., Random- walk and the theory of Brownian motion, Amer. Math. Monthly, 54 (1947), 369—391. Эти авторы не упоминали цепи Маркова, однако Кац использовал методы, близко связанные с описываемыми в следующей главе. См. также Friedman В., A simple urn model, Communications on Pure and Applied Mathematics, 2 (1949), 59—70. 2) В виде урновой модели эту задачу рассматривал Даниил Бернулли в 1769 г., критиковал Мальфатти в 1782 г. и анализировал Лаплас в 1812 г. Смг Todhunter I., A history of the mathematical theory of probability, Cambridge 1865.
§ 2. Пояснительные примеры 393 костей между двумя сосудами. На этот раз мы имеем всего 2р ча- стиц, среди которых р черных и р белых. Поскольку предполагается, что частицы представляют несжимаемые жидкости, их плотности не должны меняться, так что число р частиц в каждой урне остается постоянным. Мы говорим, что система находится в состоянии Ек (k=0, 1, . . ., р), если первая урна содержит k белых частиц. (Это означает, что она содержит р—k черных частиц, тогда как вторая урна содержит р—k белых и k черных частиц.) При каждом испыта- нии из каждой урны выбирается по одной частице, и эти две части- цы меняются местами. Переходные вероятности даются тогда фор- мулами ^/./-1 = (7) > ^/•/+1=(еу9 ' Рн = 2' ' (2J) и Рл=0, если |/—6|>1 (здесь /=0, . . р). (О стационарном рас- пределении см. в примере 7, д); обобщение этой модели см. в зада- че 10.) ж) Случайные размещения шаров. Рассмотрим последовательность независимых испытаний, в каждом из которых шар случайным об- разом помещается в один из заданных р ящиков (или урн). Мы ска- жем, что система находится в состоянии Ек, если заняты ровно k ящиков. Это определяет цепь Маркова с набором состояний £0, . . . „ . .,£р и переходными вероятностями, такими, что Pjj=j/P> P/,/+i=(P—/)/р. (2-2) и, конечно, p7-fe=0 для всех других комбинаций / и k. Если сначала все ящики были пустыми, то распределение {ак} определяется ра- венствами /20=1 и ак=0 при fc>0. (Дальнейший анализ этой цепи см. в примере гл. XVI, 2, д). Случайные размещения шаров рас- сматривались нами с других точек зрения в гл. II, 5 и гл. IV, 2.) з) Пример из клеточной генетики 1'). Цепь Маркова с набором состояний £0, . . ., En и переходными вероятностями /2/ \ (2N — 2/\ Z2AV1 /о Рл=( N-k)(N) (2-3> появляется в биологической задаче, которую упрощенно можно сфор- мулировать следующим образом. Каждая клетка некоторого орга- низма содержит N частиц, причем одни из них относятся к типу А, а другие — к типу В. Говорят, что клетка находится в состоянии Ej, если она содержит ровно / частиц типа А. Дочерние клетки об- разуются в результате клеточного деления, но перед делением каж- дая из частиц реплицируется (т. е. удваивается); дочерняя клетка т) Schensted I. V., Model of subnuclear segregation in the macronucleus of ciliates, The Amer. Naturalist, 92 (1958), 161—170. Этот автор существенно ис- пользует методы гл. XVI, но не упоминает цепи Маркова. Наша формулировка задачи математически эквивалентна рассматривавшейся в этой работе, но биоло- гически сверхупрощена,
394 Гл. XV. Цепи Маркова наследует N частиц, выбранных случайным образом из 2/ частиц типа А и 2N—2j частиц типа В, имевшихся в родительской клетке. Вероятность того, что дочерняя клетка будет находится в состоянии Eh, дается тогда гипергеометрическим распределением (2.3). В примере 8, б) будет показано, что после достаточно большого числа поколений вся популяция будет состоять (и останется со- стоящей) из клеток, находящихся в одном из чистых состояний Ео или EN; вероятности того, что отдельная линия потомков приве- дет к тому или иному чистому состоянию, суть соответственно 1—j/N и j/N (Ej есть начальное состояние). и) Примеры из популяционной генетики х). Рассмотрим последо- вательные поколения в популяции (такой, как растения на куку- рузном поле), величина которой сохраняется постоянной в резуль- тате отбора N особей в каждом поколении. Отдельный ген, который может относиться к типу А или а, имеет в популяции 2N представи- телей; если в n-м поколении А встречается / раз, то а встречается 2N—j раз. В этом случае мы говорим, что популяция находится в состоянии Ej (0^/^2AZ). Если предположить, что скрещивание происходит случайным образом, то состав следующего поколения определяется 2N испытаниями Бернулли, в которых вероятность появления гена А будет равна /7 (2N). Стало быть, мы имеем цепь Маркова с В состояниях Eq и E2N все гены относятся к одному типу, и уход из этих состояний невозможен. (Такие состояния называются го- мозиготными.) В примере 8, б) будет показано, что в конце концов вся популяция окажется в одном из гомозиготных состояний Ео или E2N. Если популяция находится вначале в состоянии Ej, то соот- ветствующие вероятности суть 1—/7(2N) и j/(2N). Эту модель можно модифицировать с тем, чтобы учесть возмож- ные мутации и селективные преимущества генов. к) Задача о скрещивании. В так называемом братско-сестринском скрещивании скрещиваются две особи, и среди их прямых потом- ков случайным образом выбираются две особи разного пола. Они вновь скрещиваются, и процесс этот продолжается бесконечно. Имея три генотипа АА, Аа, аа для каждого родителя, мы должны различать шесть комбинаций родителей, которые мы пометим сле- дующим образом: Е]=ААхАА, Е2=ААхАа, Е3=АаХАа, Е4 — =АаХаа, Е5=ааХаа, Ев=АА Хаа. Используя правила из гл. V. 5, легко видеть, что матрица переходных вероятностей имеет в этом слу- *) Эту задачу исследовали различными методами Р. Э. Фишер и С. Райт. Формулировка в терминах цепей Маркова дается в статье Malecot G., Sur un probleme de probabilites en chaine que pose la genetique, Comptes rendus de Г Aca- demic des Sciences, 219 (1944), 379—381.
§ 2. Пояснительные примеры 395 чае вид " 1 0 0 0 0 0 “ 1 1/4 1/2 1/4 0 0 0 1/16 1/4 1/4 1/4 1/16 1/8 0 0 1/4 1/2 1/4 0 • 0 0 0 0 1 0 _ 0 0 1 0 0 0 _ 1 (Обсуждение этой цепи продолжается в задаче 4; подробный ее ана- лиз дан в примере гл. XVI, 4, б).) л) Рекуррентные события и остаточные времена ожидания. неоднократно будем использовать цепь с набором состояний £0, . . . и переходными вероятностями 1 О О О f2 f9 п ООО 1 о о О 1 о О 0 1 вероятности fk произвольны, за тем лишь исключением, что в сумме они должны давать единицу. Чтобы наглядно представить себе этот процесс, предположим, что начальным состоянием будет Ео. Если первый шаг приводит в Ek^t> то система обязана пройти по- следовательно через состояния Ek_3, ... и на fe-м шаге вер' нуться в Ео, откуда процесс начнется сначала. Таким образом, по- следовательные возвращения в £0 представляют из себя возвратное рекуррентное событие S с распределением {fk} для времен возвра- щения. Состояние системы в любой момент времени определяется временем ожидания следующего прохождения через Ео- В большинстве конкретных реализаций рекуррентных событий время ожидания следующего осуществления события зависит от будущего, и, значит, наша цепь Маркова не имеет никакого практи- ческого значения. Однако эта цепь имеет смысл в том случае, когда можно представить себе, что одновременно с каждым осуществле- нием события S производится случайный эксперимент, исход ко- торого определяет величину следующего времени ожидания. Та- кие ситуации встречаются на практике, хотя они и составляют ско- рее исключение, чем правило. Например, в теории самовосстанав- ливающихся устройств (пример гл. XIII, 10, г)) иногда предпола- гается, что срок службы вновь установленного элемента зависит от выбора этого элемента, но вполне определен, коль скоро выбор уже сделан. С другой стороны, в теории массового обслуживания (в очередях к продавцу или на телефонных линиях) последователь-
396 Гл. XV. Цепи Маркова ные моменты начала обслуживания отдельных клиентов обычно соответствуют рекуррентным событиям. Предположим теперь, что имеется много типов клиентов, и для каждого из этих типов тре- буется обслуживание известной продолжительности. Тогда время ожидания между двумя последовательными моментами начала об- служивания определяется единственным образом с того момента, когда начинается обслуживание соответствующего клиента. (См. пример 7, ж).) м) Другая цепь, связанная с рекуррентными событиями. Рас- смотрим цепь с набором возможных состояний Бо, Ег, ... и пере- ходными вероятностями 91 А 0 0 0 92 0 02 0 0 г>- 9з 0 0 Рз 0 Г~ 94 0 0 0 Рз 1 L- • . J где ph+qh=l- Для наглядности мы можем интерпретировать со- стояние Eh как представляющее «возраст» системы. По достижении системой возраста k процесс старения с вероятностью рА+1 продол- жается, а с вероятностью система «омолаживается», и процесс начинается заново — с нулевого возраста. Последовательные про- хождения через состояние Ео здесь снова представляют рекуррент- ное событие, и вероятность того, что время возвращения равно А, дается произведением ргр2 . . -Pk-^h- Можно подобрать {pk} так, чтобы получить заданное распределение {fk } для времен возвраще- ния; достаточно положитьqi=fi, затем q^fJpi и т. д. В общем виде Таким образом, произвольное рекуррентное событие S с распреде- лением {f'k} времен возвращения соответствует цепи Маркова с мат- рицей Р, определяемой вероятностями (2.5). После n-го испытания система окажется в состоянии Ek тогда и только тогда, когда послед- ним испытанием, при котором произошло событие S, было испыта- ние с номером п—k (здесь й=0, 1, . . .). Номер этого состояния час- то называется «затраченным временем ожидания». (Обсуждение про- должается в примерах 5, б), 7, е) и 8, д).) н) Серии успехов. В качестве частного случая предыдущего при- мера рассмотрим последовательность испытаний Бернулли и ус- ловимся, что при n-м испытании система будет в состоянии если последняя неудача наблюдалась при испытании с номером. п—k. Здесь &=0, 1, . . . , и считается, что нулевое испытание при- вело к неудаче. Иначе говоря, индекс k равен длине непрерывав-
§ 3. Вероятности перехода за несколько шагов 397 шейся последовательности успехов, оканчивающейся n-м испыта- нием. Переходные вероятности здесь те же, что и в предыдущем при- мере с ръ=р и q^q при всех k. § 3. ВЕРОЯТНОСТИ ПЕРЕХОДА ЗА НЕСКОЛЬКО ШАГОВ Мы обозначим через р<$ вероятность перехода из Ej в Ek ровно за п шагов. Иначе говоря, р{$ есть условная вероятность попадания в Ek на n-м шаге при условии, что начальным состоя- нием было Ej\ она равна сумме вероятностей всех путей EjEJv. .. ...Ej Ек длины п, начинающихся в Ef и оканчивающихся в Ек. В частности, pty = p.k и P'iki = 'XlPivPvk. (3.1> V По индукции мы получаем общую рекуррентную формулу P'ik+'’ = ^PivPv^ (3.2} дальнейшая индукция по т приводит к основному тождеству (3.3) (которое является частным случаем уравнения Колмогорова — Чэпмена). Оно отражает тот простой факт, что первые т шагов приводят из Ej в некоторое промежуточное состояние Ev и что вероятность последующего перехода из Ev в Ek не зависит от того, каким образом было достигнуто Р/). Так же как и в случае pJk, образовавших матрицу Р, мы рас- положим р{$ в матрицу, которую обозначим Рп. Тогда (3.2) утверждает, что для того, чтобы получить элемент р$+1) матрицы Рп+1, мы должны умножить элементы /-й строки Р на соответ- ствующие элементы &-го столбца Рп и сложить все полученные произведения. Эта операция называется умножением матриц Р и Рп и выражается символически равенством Рп+1 = РРп. Данное определение позволяет назвать Рп /г-й степенью Р; уравнение (3.3) выражает известный закон Рт+п ~ ртрп Для того чтобы (3.3) было справедливо для всех п^О, мы определим р$, положив Р//)=1 и = 0 при j=£k, что вполне естественно. Примеры, а) Независимые испытания. Обычно бывает трудно получить явные выражения для вероятностей перехода за несколь- т) Последнее свойство является характерным для марковских процессов, которые будут определены в § 13. Долгое время предполагалось, что (3.3) можно использовать для определения цепей Маркова, однако это неожиданно оказалось неверным (см. пример 13,е))._
398 Гл, XV. Цепи Маркова ко шагов, однако, к счастью, они не представляют особого интере- са. Как важное, хотя и тривиальное исключение, мы отметим част- ный случай независимых испытаний. Этот случай имеет место тог- да, когда все строки Р тождественно совпадают с данным распреде- лением вероятностей, и ясно без вычислений, что отсюда следует равенство Рп~Р при всех п. б) Серии успехов. В примере 2, н) легко видеть (либо из рекур- рентной формулы (3.2), либо из самого определения процесса), что qp* рп о при й = 0, 1, ..., п—1, при = +/, в остальных случаях. В этом случае ясно, что Рп сходится к матрице, такой, что все элементы в ее столбце с номером k равны qpk. > Безусловные вероятности Пусть снова aj означает вероятность состояния Ej в начальном (нулевом) испытании. Тогда (безусловная) вероятность попадания в Ek на п-м шаге равна 4" (3.4) Обычно мы считаем, что процесс начинается из фиксированного состояния Eh т. е. полагаем az=l. В этом случае а!£}-=р<$. Интуитивно мы чувствуем, что влияние начального состояния должно постепенно ослабевать, так что при больших п распреде- ление (3.4) должно быть почти независимым от начального рас- пределения {аД. Так оно и будет, если (как в последнем примере) сходится к не зависящему от / пределу, т. е. если Рп схо- дится к матрице с одинаковыми строками. Мы увидим, что обычно это действительно так, хотя нам и придется еще принимать в рас- чет досадные исключения, обусловленные периодичностью. 3 4. ЗАМЫКАНИЯ И ЗАМКНУТЫЕ МНОЖЕСТВА Будем говорить, что Ek достижимо из Ер если существует такое п^О, что р{$>® (т. е. если имеется положительная веро- ятность попасть в Ek из Ер включая случай Ek = Ej). Например, в неограниченном случайном блуждании каждое состояние дости- жимо из любого другого состояния, однако из поглощающего экрана не достижимо никакое другое состояние. Определение. Множество состояний С называется замкнутым, если никакое состояние вне С не достижимо ни из одного состояния Ej из С. Для произвольного множества С замыканием С называется наименьшее замкнутое множество, содержащее С.
§ 4. Замыкания и замкнутые множества 399 Если одно состояние Ek образует замкнутое множество, то оно называется поглощающим. Цепь Маркова называется неприводимой, если не существует замкнутых множеств, отличных от множества всех состояний. Ясно, что С замкнуто тогда и только тогда, когда p7-fe = 0 при всех / и k, таких, что Ej принадлежит С, a Ek не принадлежит С, ибо в этом случае мы видим из (3.2), что р^) = 0 при всех п. Таким образом, имеет место очевидная теорема. Теорема. Если вычеркнуть в матрицах Рп все строки и столб- цы, соответствующие состояниям, не принадлежащим замкнуто- му множеству С, то останутся стохастические матрицы, для ко- торых вновь будут справедливы фундаментальные соотношения (3.2) и (3.3). Это означает, что мы имеем цепь Маркова, определенную на С, и эту подцепь можно изучать независимо от всех остальных состоя- ний. Состояние Ек является поглощающим тогда и только тогда, когда в этом случае матрица из последней теоремы сводится к одному-единственному элементу. Вообще, ясно, что все состояния Eh, достижимые из данного состояния Ej, образуют замкнутое мно- жество. (Поскольку замыкание Ej не может быть меньше этого мно- жества, то оно с ним совпадает.) Неприводимая цепь не содержит собственных замкнутых подмножеств, так что мы имеем следующий простой, но полезный критерий. Критерий. Цепь неприводима тогда и только тогда, когда каж- дое ее состояние достижимо из любого другого состояния. Примеры, а) Для того чтобы найти все замкнутые множества, достаточно знать, какие pjh равны нулю и какие положительны. В соответствии с этим мы воспользуемся символом * для обозначе- ния положительных элементов и рассмотрим типичную матрицу, скажем *0 00*0000 *" 0**0*00*0 0000000*0 *00000000 0000*0000 0*0000000 0*000**00 00*000000 1 _0 00*0000 *_ Занумеруем состояния числами от 1 до 9. В пятой строке * стоит только на пятом месте, и, стало быть,рб5 = 1: состояние Еь является
400 Гл. XV. Цепи Маркова поглощающим. Третья и восьмая строки содержат лишь по одному положительному элементу каждая, и ясно, что £3 и £8 образуют замкнутое множество. Из Ег возможны переходы в и £9, а из них —только в £i, £4, £9. Следовательно, три состояния £ъ £4, £9 образуют другое замкнутое множество. Из £2 возможны непосредственные переходы в него самого и в £3, £5 и £8. Пара (£3, £8) образует замкнутое множество, тогда как £5 есть поглощающее состояние; поэтому замыкание £2 состоит из множества £2, £3, £б, £8. Легко видеть, что замыкания оставшихся •состояний £6 и £7 состоят из всех девяти состояний. Внешний вид нашей матрицы и процедуру выделения замкну- тых множеств можно упростить, перенумеровав состояния в следую- щем порядке: Тогда замкнутые множества будут содержать лишь соседние сос- тояния и структура цепи будет понятна с первого взгляда на новую матрицу. б) В матрице из примера 2, к) состояния £х и £5 являются погло- щающими, и других замкнутых множеств не существует. в) В генетическом примере 2, и) состояния £0 и £2ЛГ являются поглощающими. При 0</<;2Af замыкание Ej содержит все состоя- ния. В примере 2, з) состояния £0 и EN являются поглощающи- ми. Рассмотрим цепь с набором состояний £х, . . ., £р, такую, что £1, . . ., ЕГ образуют замкнутое множество (г<р). Тогда (гх^-под- матрица, стоящая в левом верхнем углу Р, тоже будет стохастиче- ской, и мы можем представить Р в виде блочной матрицы Матрица в верхнем правом углу имеет г строк и р—г столбцов и состоит только из нулевых элементов. Аналогично U означает мат- рицу с р—г строками и г столбцами, тогда как V есть квадратная матрица. Мы будем пользоваться символическим блочным разбие- нием (4.1) и в том случае, когда замкнутое множество С и его до- полнение С' содержат бесконечно много состояний; это разбиение просто указывает на группировку состояний и на тот факт, что если Ej принадлежит С, а Ек — его дополнению С'. Из ре- куррентной формулы (3.2) очевидно, что вероятности перехода за несколько шагов допускают аналогичное разбиение: Р« = ~ Qn 0 - и„ Уп. (4.2) Сейчас мы не интересуемся видом элементов матрицы Un, стоящей в левом нижнем углу. Главное здесь в том, что из (4.2) стано-
§5. Классификация состояний 401 вятся ясны три очевидных, но важных факта. Во-первых, pJ^==O, когда но Ek£C. Во-вторых, появление степени Qn пока- зывает, что когда оба состояния Е, и Ek принадлежат С, то пере- ходные вероятности pty получаются из рекуррентной формулы (3.2) при суммировании, ограниченном только состояниями из замкнутого множества С. Наконец, наличие Vn указывает, что последнее утверждение остается справедливым при замене С на его дополнение С'. Следовательно, можно будет упростить даль- нейшее изучение цепей Маркова, рассматривая отдельно состояния, принадлежащие замкнутому множеству С, и состояния, принадле- жащие дополнению С'. Заметим, что мы не предполагали, что Q неприводима. Если С разбивается на несколько замкнутых подмножеств, то Q допускает дальнейшее разбиение. Существуют цепи с бесконечным числом замкнутых подмножеств. Пример, г) Как уже упоминалось выше, случайное блуждание на плоскости представляет собой специальную цепь Маркова, хотя упорядочивание состояний в простую последовательность было бы неудобным для практических целей. Предположим теперь, что мы видоизменяем случайное блуждание, считая, что по достижении оси х частица будет продолжать случайное блуждание вдоль по этой оси, уже не покидая ее. Тогда точки оси х образуют бесконеч- ное замкнутое множество. С другой стороны, если мы условимся, что по достижении оси х частица навсегда остается в точке первого попадания на эту ось, то каждая точка оси х превратится в погло- щающее состояние. > § 5. КЛАССИФИКАЦИЯ СОСТОЯНИЙ В процессе с начальным состоянием Ej последовательные воз- вращения в Ej представляют собой рекуррентное событие, тогда как последовательные прохождения через какое-либо иное состоя- ние будут представлять собой уже рекуррентное событие с запазды- ванием (определенное в гл. XIII,5). Стало быть, теория цепей Мар- кова сводится к одновременному изучению многих рекуррентных событий. Общая теория рекуррентных событий применима к ней без каких-либо модификаций, однако, чтобы избежать чрезмерного количества ссылок на гл. XIII, мы заново сформулируем основные определения. Таким образом, настоящая глава будет по существу самостоятельной и независимой от гл. XIII, за тем лишь исключе- нием, что трудное доказательство сходимости (5.8) не будет повто- рено во всей полноте. Состояния цепи Маркова будут классифицированы независимым образом с двух точек зрения. Классификация по свойствам возв- ратности и невозвратности является фундаментальной, тогда как классификация по свойствам периодичности и непериодичности
402 Гл. XV. Цепи Маркова касается технических деталей. Периодичность связана с некоторы- ми неудобствами, ибо требует постоянных тривиальных замечаний; начинающий читатель должен концентрировать свое внимание на цепях, не имеющих периодических состояний. Все определения в этом параграфе связаны только с матрицей переходных вероятно- стей и не зависят от начального распределения {aj}. Определение 1. Состояние Ej имеет период Z > 1, если р(/р = «= 0, когда п не является кратным /, и t — наибольшее целое число, обладающее этим свойством. Состояние Ej является непе- риодическим, если такого t > 1 не существует1). Для изучения периодического состояния Ej достаточно рас- смотреть нашу цепь при испытаниях с номерами /, 2t, 3/, ... . Таким образом мы получим новую цепь Маркова с переходными ве- роятностями р$, и в этой новой цепи Ej будет уже непериодическим состоянием. При помощи этого приема результаты для непериоди- ческих состояний могут быть перенесены на периодический слу- чай. Детали мы обсудим в § 9 и (за исключением следующего при- мера) сосредоточим теперь наше внимание на непериодических цепях. Пример, а) В неограниченном случайном блуждании все состоя- ния имеют период 2. В случайном блуждании с поглощающими эк- ранами в точках 0 и р (пример 2, б)) внутренние состояния имеют период 2, однако поглощающие состояния Ео и Ер будут, конечно же, непериодическими. Если хотя бы один из экранов сделать от- ражающим (пример 2, в)), то все состояния станут непериодиче- скими. ► Обозначения. На всем протяжении этой главы f$ означает вероятность того, что в начинающемся из Ej процессе первое попадание в Eh произойдет на п-м шаге. Мы положим = 0 и <5-2> Очевидно, fjk есть вероятность того, что, выходя из Ej, система когда-нибудь пройдет через Ek. Поэтому Когда последовательность {fffl} есть собственное распределение вероятностей, и мы будем называть его распределением времени первого достижения Ek. В частности, {f(ff} будет распределением для времен возвращения в Ej. Определение (5.2) имеет смысл А) Состояние Ej, возвращение в которое невозможно (т. е. для которого при всех 11 > 0)> будет считаться непериодическим.
§ 5. Классификация состояний 403 только тогда, когда //7=1, т. е. когда возвращение в Ef досто- верно. В этом случае g, оо будет средним временем возвращения eEf. Для наших целей не потребуется действительного вычисления вероятностей однако для ясности мы укажем, как можно определить (при помощи стандартных для теории восстановле- ния рассуждений). Если первое достижение Ек осуществляется при v-м испытании —1), то (условная) вероятность попада- ния в Ek при n-м испытании будет равна /4VV). Вспоминая наше соглашение р$ = 1, мы заключаем, что п (5.3) V=1 Полагая последовательно п = 1, 2, ..., мы получим рекуррентно f/fe’» .... И обратно, если для пары j, k известны fjk\ TO (5.3) определяет все переходные вероятности р™. Для любого состояния Ef прежде всего встает вопрос о том, является ли достоверным возвращение в него. Если оно досто- верно, то возникает вопрос: конечно или нет среднее время воз- вращения рг? Следующее определение согласуется с терминоло- гией гл. XIII. Определение 2. Состояние Ej возвратно, если fjj—l, и невоз- вратно, если Возвратное состояние Ej называется нулевым, если для него сред- нее время возвращения р7=оо. Это определение применимо и к периодическим состояниям. Все возвратные состояния оно подразделяет на нулевые и ненулевые состояния. Последние представляют особый интерес, и, поскольку обычно мы фокусируем наше внимание на непериодических состоя- ниях, нам будет удобно воспользоваться термином «эргодическое состояние» для непериодических возвратных ненулевых состояний х). Итак, мы вводим следующее определение. Определение 3. Непериодическое возвратное состояние Ej, у ко- торого \ij<ZoQ, называется эргодическим. В следующей теореме приведены выраженные через переходные вероятности условия того, что Ej является состоянием того или иного типа. Содержащиеся в ней критерии весьма важны, хотя обычно слишком трудны для практического их использования. Бо- *) К сожалению, эта терминология не является общепринятой. В термино- логии Колмогорова невозвратные состояния называются ^несущественными», одна- ко в этой главе мы намереваемся показать, что именно невозвратные состояния часто представляют теоретический и практический интерес. (Это мнение поддержи- вается и современной теорией потенциала.) Эргодические состояния иногда назы- ваются положительными», термин «эргодическое» иногда используется вместо нашего «возвратное»,
404 Гл. XV. Цепи Маркова лее удобные критерии можно найти в § 7 и 8, однако, к сожалению, простого универсального критерия не существует. Теорема, (i) Ej является невозвратным состоянием тогда и только тогда, когда £/$’<«>. (5.4} п = 0 В этом случае при всех i S р® < °0- (5-5> /1=1 (ii) Ej является (возвратным) нулевым состоянием тогда и только тогда, когда = но РпУ—*0 (5.6) п-0 при /г—^оо. В этом случае при всех i Р^ — 0. (5.7) (iii) Непериодическое (возвратное) состояние Ej является эрго- дическим тогда и только тогда, когда цу- < оо. В этом случае при п—> оо — (5.8) Следствие. Если Ej — непериодическое состояние, то р^ стре- мится либо к нулю, либо к пределу в (5.8). Доказательство. Утверждение (5.4) содержится в теореме 2 гл. XIII, 3. Утверждение (5.5) является непосредственным след- ствием (5.4) и (5.3), однако оно содержится также в теореме 1 гл. XIII, 5. Для непериодического возвратного состояния теорема 3 гл. XIII, 3 утверждает, что р{р —^Р-71, где правую часть надо считать равной нулю, если ру. = оо. Утверждения (5.7) и (5.8) непосредственно следуют из этого соотношения и (5.3) или же из теоремы 1 гл. XIII, 5. Пусть Ej возвратно и ру^=оо. По теореме 4 гл. XIII, 3 в этом случае pw—>0, откуда снова следует (5.7). ► Примеры, б) Рассмотрим состояние £0 в цепи из примера 2, м). Своеобразная структура матрицы переходных вероятностей пока- зывает, что первое возвращение в Ео при n-м испытании возможно лишь при наличии последовательности переходов Eq—> Е.-+ Е2—^. . —> Еп_г —> Eq, и поэтому при (5-9) fw=PiP2- --Рп-Лп’
§ 6. Неприводимые цепи. Разложения 405' а /оо)==?1- В частном случае, когда pk определяются формулой (2.5), это сводится к foo—fn- Поэтому Ео невозвратно, если 1. Для возвратного Ео среднее время возвращения р0 сов- падает со средним распределения {/„}. Наконец, если Ео имеет период /, то /„ = 0, за исключением тех п, которые кратны t. Короче говоря, как и следовало ожидать, при любых обстоятель- ствах Ео имеет тот же тип, что и рекуррентное событие <§, свя- занное с нашей цепью Маркова. в) Если в примере 4, а) система покинет состояние Е2, то возвра- щение в это состояние станет невозможным, и поэтому Е2 невозврат- но. Небольшое усовершенствование этого рассуждения показывает г что состояния Е6 и Е7 также невозвратны. Из теоремы 4 § 6 следует,, что все остальные состояния цепи эргодичны. § 6. НЕПРИВОДИМЫЕ ЦЕПИ. РАЗЛОЖЕНИЯ Для краткости мы будем говорить, что de# состояния однотипны,. если они одинаково характеризуются во всех классификациях, вве- денных в предыдущем параграфе. Другими словами, два однотип- ных состояния либо имеют один и тот же период, либо оба неперио- дичны; или оба невозвратны, или оба возвратны; в последнем слу- чае средние времена возвращения у обоих либо бесконечны, либо конечны. Полезность нашей классификации обусловлена в значительной степени тем фактом, что для всех практических целей всегда можно ограничиться рассмотрением состояний какого-то одного типа. Сле- дующая теорема показывает, что для неприводимых цепей это спра- ведливо всегда. Теорема 1. В неприводимой цепи все состояния однотипны. Доказательство. Пусть Ef и Ek—два произвольных состояния1 неприводимой цепи. В силу критерия из § 4 каждое состояние достижимо из любого другого состояния, и поэтому существуют такие целые числа г и s, что —а>0 и р$ = ₽> 0. Очевидно, p)7+r+s)> (6.1) Здесь /, k, г и s фиксированы, тогда как п произвольно. Если Еу. невозвратно, то левая часть (6.1) является членом сходяще- гося ряда, и, стало быть, то же справедливо и для р$. Более того, если Рр} —+0, то и pff—>0. Аналогичные утверждения бу- дут иметь место и в случае, когда / и k поменяются ролями, и поэтому либо Ej и Ek оба невозвратны, либо оба возвратны; если одно из них является нулевым, то таким же будет и другое сос- тояние. Предположим, наконец, что Ej имеет период t. При п=0 правая -часть (6.1) положительна, и, следовательно, r+s кратно I. Но тогда
406 Гл. XV. Цепи Маркова левая часть (6.1) при /г, не кратных t, будет обращаться в нуль, и поэтому Ек имеет период, который кратен t. Меняя j и k ролями, мы видим, что эти состояния имеют одинаковый период. ► Важность теоремы 1 отчасти выявляет следующая теорема. Теорема 2. Для любого возвратного состояния Ej существует единственное неприводимое замкнутое множество С, содержащее Ej и такое, что для каждой пары, Eif Ek состояний из С и fki = l. (6.2) Иначе говоря: выходя из произвольного состояния Et из С, система с достоверностью пройдет через каждое состояние из мно- жества С; по определению замыкания выход из С невозможен. Доказательство. Пусть Ек — достижимое из Ej состояние. Тог- да очевидно, что в Ек можно попасть, не возвращаясь предваритель- но в Ej\ вероятность этого события мы обозначим через а. Но, по- пав в Ек, мы никогда не вернемся в Ej с вероятностью 1—fkj. Стало быть, вероятность того, что выходящая из Ej система никогда не вернется в Ej, не меньше а(1—fkj). Однако для возвратного Ej ве- роятность невозвращения равна нулю, и поэтому fkj=i для любо- го Ек, достижимого из Ej. Обозначим через С совокупность всех достижимых из Ej состоя- ний. Если Ei и Ек принадлежат С, то, как мы видели, Ej достижимо из Ек, и, следовательно, Et также достижимо из Ек. Таким образом, каждое состояние из С достижимо из любого другого состояния из С, и поэтому в силу критерия из § 4 С неприводимо. Отсюда следует, что все состояния из С возвратны, и поэтому роль Ej в первой части рассуждения может играть любое Et из этого множества. Это оз- начает, что fki = \ для всех Ек из С, и тем самым справедливо (6.2). Из этой теоремы вытекает, что замыкание возвратного состоя- ния неприводимо. Для невозвратного состояния это не обязательно так. Пример. Предположим, что при&^/, но р^/+1>0. Здесь имеют место только переходы в состояния с большими номерами, и поэтому невозможно возвращение ни в одно состояние. Каждое -Ej невозвратно, и замыкание Ej состоит из состояний Ej, E/+i, Ej+2, . . ., однако и само это замыкание содержит замкнутое под- множество, получающееся при вычеркивании Ej. Отсюда следует, что неприводимых множеств у этой цепи не существует. ► Из последней теоремы вытекает, в частности, что из возврат- ного состояния не достигается ни одно невозвратное состояние. Если же цепь содержит оба типа состояний, то это означает, что матрица Р допускает символическое разбиение вида (4.1), где матрица Q со- ответствует возвратным состояниям. Излишне говорить, что мат-
§ 7. Инвариантные распределения 407 рица Q вновь может быть разложимой. Но каждое возвратное со- стояние принадлежит единственному неприводимому подмножеству,, и между этими подмножествами невозможны никакие переходы. Сказанное резюмирует следующая теорема. Теорема 3. Состояния цепи Маркова единственным образом мо- гут быть разбиты на неперекрывающиеся множества ТУС1У С . . . > такие, что (i) Т состоит из всех невозвратных состояний] (ii) если Ej принадлежит Cv, то fjk=\ для всех Ek из Cv* тогда как fik = 0 для всех Ek, не принадлежащих Cv. Отсюда вытекает, что Cv неприводимо и содержит только одно- типные возвратные состояния. Приведенный выше пример пока- зывает, что все состояния могут быть невозвратными, а пример 4, г) доказывает, что множеств Cv может быть бесконечно много. Следующую теорему мы выведем как простое следствие из теоре- мы 2, однако она может быть доказана и другими простыми спосо- бами (см. задачи 18—20). Теорема 4. В конечной цепи не существует нулевых состояний* и все состояния ее не могут быть невозвратными. Доказательство. Для каждой строки матрицы Рп сумма эле- ментов равна единице, и так как строки эти состоят из фиксиро- ванного числа элементов, то невозможно, чтобы р$—>0 для всех j, k. Поэтому не все состояния невозвратны. Но возвратное сос- тояние принадлежит некоторому неприводимому множеству С. Все состояния из С однотипны. Поэтому тот факт, что С содержит возвратное состояние и хотя бы одно ненулевое состояние, и будет означать, что в С нет ни одного нулевого состояния. ► § 7. ИНВАРИАНТНЫЕ РАСПРЕДЕЛЕНИЯ Поскольку каждое возвратное состояние принадлежит неко- торому неприводимому множеству, асимптотическое поведение ко- торого можно изучать независимо от остальных состояний, мы сей- час займемся исключительно неприводимыми цепями. Все состоя- ния такой цепи однотипны, и мы начнем с простейшего случая, а именно с цепей с конечными средними временами возвращения Ру. Чтобы избежать тривиальных переформулировок, мы отложим обсуждение периодических цепей до § 9. Иначе говоря, мы рассмот- рим теперь цепи, состояния которых непериодичны и возвратны с конечными временами возвращения. Такие цепи называются эрго- дическими (определение 5.3). Теорема. В неприводимой эргодической цепи существуют не зависящие от начального состояния j пределы иь=Нтр$. (7.1), л->со
408 Гл. XV. Цепи Маркова Более того, uk > 0, 2Х=1. (7.2) и *) u^'ZuiPi;. (7.3) L Обратно, предположим, что цепь неприводима и непериодична и что существуют числа иудовлетворяющие (7.2) и (7.3). Тогда цепь эргодична, и для uk справедливы соотношения (7.1) и uh=\lp.k, (7.4) где — среднее время возвращения в Ek. Доказательство, (i) Предположим, что цепь неприводима и эргодична, и определим uk по формуле (7.4). Теорема 2 § 6 гаран- тирует, что fij=l для каждой пары состояний, и поэтому утверж- дение (7.1) сводится к (5.8). Далее, п{п +l) — V п (7 Pik —ZjPii Pjk- \‘-°/ / При п -> оо левая часть сходится к ик, тогда как общий член справа стремится к Ujpjk. Взяв справа лишь конечное число членов, мы заключаем, что 2 «/?/*• (7-6) / Для фиксированных i и п левые части в (7.5) дают в сумме единицу, и поэтому s = 2«fe<1- (7-7) Суммируя по k в (7.6), мы получаем соотношение s^s, знак нера- венства в котором невозможен. Следовательно, в (7.6) при всех k справедливо равенство, и тем самым первая часть теоремы доказана. (ii) Допустим теперь, что uk^Q и выполняются равенства (7.2) и (7.3). По индукции = (7-8) i для всех п>\. Поскольку цепь предполагается неприводимой, все состояния однотипны. Если бы они были невозвратными или нуле- выми, то правая часть (7.8) стремилась бы к 0 при п->оо, а этого при всех k быть не может, ибо ик в сумме составляют единицу. Посколь- ку случай периодических цепей мы исключили, то это означает, что цепь эргодична, так что применима первая часть теоремы. 1) Если представить {uj} как вектор-строку, то (7.3) можно будет запи- сать в матричной форме: и = иР.
§ 7. Инвариантные распределения 409' Поэтому, устремляя и к оо, получаем (7-9) i Следовательно, распределение вероятностей {uk} пропорционально распределению {цГ1}, и поэтому, как утверждалось, ► Чтобы оценить все значение этой теоремы, рассмотрим эволю- цию процесса от начального распределения {ау}. Вероятность по- падания при n-м шаге в состояние Eh равна a^^ajP^ (7.10). / (см. (3.4)). Поэтому в силу (7.1) при п—> оо uk. (7.11). Иначе говоря, каким бы ни было начальное распределение, вероят- ность состояния Ek стремится к uk. С другой стороны, если началь- ное распределение равно {uk} (т. е. если afe = wfe),To из (7.3) выте- кает, что a{k} — uk и —по индукции—что = ик при всех п. Таким; образом, удовлетворяющее (7.3) начальное распределение «увеко- вечивается» на все времена. По этой причине оно называется ин- вариантным. Определение. Распределение вероятностей {ик}, удовлетворяю- щее условию (7.3), называется инвариантным или стационарным* (для данной цепи Маркова). Теперь главную часть предыдущей теоремы можно переформу- лировать следующим образом. Неприводимая непериодичная цепь Маркова обладает инвариант- ным распределением вероятностей \ик} тогда и только тогда,, когда она эргодична. В этом случае uk> 0 при всех k и безуслов- ный вероятности а[п} стремятся к ик независимо от начального* распределения. Физический смысл стационарности станет понятным, если мы. представим себе большое число одновременно протекающих про- цессов. Конкретнее, рассмотрим N частиц, независимо совершаю- щих случайные блуждания одного типа. Среднее число частиц,, находящихся на n-м шаге в состоянии Eht равно величине которая стремится к Nuk при п-^оо. После достаточно длительного промежутка времени распределение станет приблизительно ин- вариантным, и физик в такой ситуации сказал бы, что он наблю- дает частицы в равновесии. Поэтому распределение {uh} назы- вается также равновесным распределением. К сожалению, этот тер- мин отвлекает внимание от того важного обстоятельства, что отно- сится он к так называемому макроскопическому равновесию, т. ес.
410 Гл. ХК. Цепи Маркова равновесию, поддерживаемому большим числом переходов в проти- воположных направлениях. Отдельная же частица не проявляет никакой тенденции к равновесию, и для этого индивидуального процесса никаких следствий из нашей предельной теоремы не про- истекает. Типичным в этом отношении является симметричное случайное блуждание, рассматривавшееся в гл. III. Если большое число час- тиц независимо совершают такие случайные блуждания, начавшие- ся в нуле, то в любой момент времени приблизительно половина из них будет справа, а другая половина слева от нуля. Однако это не означает, что большинство частиц проводят половину своего времени на положительной стороне. Напротив, законы арксинуса показывают, что большинство частиц проводят непропорционально большую часть своего времени на одной стороне от нуля, и в этом смысле большинство не является представителем ансамбля. Этот слу- чай является крайним в том смысле, что средние времена возвра- щения в нем бесконечны. В эргодических цепях случайные флукту- ации более умеренны, но практически они будут носить тот же ха- рактер, если времена возвращения будут иметь очень большие (или бесконечные) дисперсии. Должным образом осознав статистическую природу «тенденции к равновесию», можно было бы избежать мно- гих пространных рассуждений и ложных заключений. В предыдущей теореме мы предполагали цепь неприводимой и непериодичной, и теперь уместно спросить, в какой степени су- щественны эти предположения. Внимательное чтение доказательст- ва показывает, что на самом деле мы доказали больше, чем утверж- далось в теореме. В частности, мы по ходу дела получили следую- щий критерий, применимый к произвольным цепям (включая пе- риодические и приводимые цепи). Критерий. Если цепь обладает инвариантным распределением вероятностей {uk}, то и k=0 для каждого Ek, являющегося либо невозвратным, либо возвратным нулевым состоянием. Иначе говоря, из вытекает, что Ек возвратно и имеет конечное среднее время возвращения, но может быть и периоди- ческим. Доказательство. Мы видели, что из стационарности распреде- ления {uk\ следует соотношение (7.8). Если Ek — невозвратное или нулевое состояние, то р/Т —> 0 при всех /, и поэтому, как и утвер- ждалось, uk — 0. ► Что касается периодических цепей, то, забегая вперед, упомя- нем результат, доказанный в § 9 и заключающийся в том, что для каждой неприводимой цепи, состояния которой имеют конечные сред- ние времена возвращения, существует единственное инвариантное распределение вероятностей {ик}. Случай периодических цепей был исключен в настоящем параграфе лишь потому, что простые пре-
§ 7. Инвариантные распределения 411 дельные соотношения (7.1) и (7.11) принимают для него менее при- влекательный вид, который только отвлекает от существа дела, в действительности на него не влияя. Примеры, а) Цепи с несколькими неприводимыми компонентами могут допускать несколько стационарных решений. Банальный, но типичный пример этого—случайное блуждание с двумя поглощаю- щими состояниями Eq и Ер (см. пример 2,6)). Для него каждое распределение вероятностей вида (а, 0, 0, ..., О, 1— а), приписы- вающее положительные веса только состояниям EQ и Ер, является стационарным. б) По данной матрице переходных вероятностей не всегда легко определить, существует ли инвариантное распределение {uh}. За- мечательное исключение составляет случай, когда р/к==0 при \k—/|>1, (7.12) т. е. когда все ненулевые элементы матрицы лежат на главной диагонали или на непосредственно примыкающей к ней прямой. Если состояния перенумерованы, начиная с 0, то соотношения (7.3) здесь примут вид Uo—PooUq-{- рюЩ, (7.13V U1 =Ро1^о4" 21U 2 и т. д. Чтобы избежать тривиальных оговорок, предположим, что Pj< и pjt /_!>() при всех />0; относительно диагональных эле- ментов pjj не предполагается ничего. Уравнения (7.13) могут быть последовательно разрешены относительно и19 и2,. . . . Вспоминая, что для каждой строки матрицы Р сумма элементов равна единице^ мы находим и. Poi ,, ____ Р01Р12 ,, ___Р01Р12Р2З U’Ae Un "" " T- Uf\ Рю 0 2 P10P21 0 P10P21P32 (7.14) и т. д. Получаемая в результате (конечная или бесконечная) после- довательность Uq, и19. . . представляет собой единственное решение (7.13). Чтобы превратить ее в распределение вероятностей, надо выбрать нормирующий множитель и0 так, чтобы Такой выбор возможен тогда и только тогда, когда ЕР01Р12Р23 • • -Pfe-i, k Р10Р21Р32 • • «Pfe, fe-i оо. (7.15) Таким образом, это есть необходимое и достаточное условие для существования инвариантного распределения вероятностей; если же последнее существует, то оно с необходимостью единственно. (Если (7.15) не выполняется, то (7.14) является так называемой инвариантной мерой; см. § 11.) В примере 8,г) мы выведем аналогичный критерий для проверки возвратности состояний. Следующие три примера иллюстрируют применимость нашего критерия.
412 Гл. XV. Цепи Маркова в) Отражающие экраны. Пример 2, в) (с р^оо) является част- ным случаем предыдущего примера с р^.+1=р при всех /<р и Pj, j^x—q при всех />1. Когда число состояний конечно, сущест- вует инвариантное распределение с ик, пропорциональными (p!q)k. Если же число состояний бесконечно, то для сходимости (7.15) требуется, чтобы p<q, и в этом случае uk=(l—p/q) (p>/q)k. Из общей теории случайных блужданий ясно, что при p>q состояния цепи будут невозвратными, а при p=q — возвратными нулевыми. Это будет вытекать также из критерия в примере 8,г). г) Модель Эренфестов для диффузии. Для матрицы из примера 2,д) решение (7.14) сводится к Биномиальные коэффициенты являются членами разложения бинома Ньютона (1 + 1)р, и поэтому, чтобы получить распределение вероят- ностей, мы должны положить w0 = 2~p. Эта цепь имеет период 2, состояния имеют конечные средние времена возвращения, и инва- риантным является биномиальное распределение с р=^\/2. Данный результат можно интерпретировать следующим обра- зом: каково бы ни было начальное число молекул в первом сосуде, через достаточно долгое время вероятность обнаружения в нем k молекул будет примерно такой же, как если бы р молекул были распределены по сосудам случайным образом, причем для каждой .молекулы вероятность находиться в первом сосуде равнялась бы 1/2. Это типичный пример того, как наши результаты приобретают физический смысл. При больших р нормальное приближение для биномиального распределения показывает, что, коль скоро приблизительно уста- новится предельное распределение, мы практически наверняка най- дем примерно половину молекул в каждом из сосудов. Для физика число р=106, конечно, является малым. Но даже при р = 106 моле- кул вероятность обнаружить более 505 000 молекул в одном сосу- де (флуктуация плотности примерно на 1 процент) имеет величину порядка 10”23. При р=108 флуктуация плотности на одну тысяч- ную будет иметь такую же пренебрежимо малую вероятность. Вер- но, что система будет изредка попадать в весьма невероятные со- стояния, однако времена возвращения для них фантастически вели- ки по сравнению с временами возвращения в состояния, близкие к равновесию. Физическая необратимость проявляется в том факте, что когда бы система ни оказалась в состоянии, далеком от равно- весия, для нее гораздо правдоподобнее изменения в сторону равно- весия, чем в противоположном направлении. д) Модель Бернулли — Лапласа для диффузии. Для матрицы х элементами (2.1) получаем из (7.14), что ‘"°.......р- (7Л7)
§7. Инвариантные распределения 413 / 2р\ Сумма квадратов биномиальных коэффициентов равна \ (см. формулу (12.11) гл. II), и, следовательно, “•=(’ИрТ (7J8) представляет собой инвариантное распределение. Это гипергеомет- рическое распределение (см. гл. II, 6). Таким образом, в состоянии равновесия распределение частиц по цвету в каждой урне такое же, как если бы содержащиеся в ней р частиц были выбраны случайным образом из набора из р черных и р белых частиц. е) В примере 2, м) соотношения для инвариантного распределе- ния вероятностей примут вид uk = Pkuk-i> *=1, 2, •••. (7.19а) W0 = 71«0 + <72«1 + <7з«2 + • • • • (7-19 б) Из (7.19а) получаем • • • РА- (7.20) и теперь легко видеть, что первые k членов в правой части (7.196) в сумме составляют щ—ик. Поэтому (7.196) автоматически выполняется, если ufe->0, и инвариантное распределение вероятнос- тей существует тогда и только тогда, когда HjPlPsT • -Pk<°°- (7-21) k (См. также примеры 8, д) и 11, в).) ж) Рекуррентные события. В примере 2,л) условия для инвари- антного распределения вероятностей сводятся к «ft=wfc+i+/fe+i«o, 6=0, 1, .... (7.22) Суммируя по 1,. . ., получаем гп£/о, где rn fп+2~^~• • • • (7.23) Но г0+^1+. • .=Н равно математическому ожиданию распределе- ния {fk}. Итак, инвариантное распределение вероятностей дается формулой un=rn/[i, если |х<оо; при ц=оо такого распределения не существует. Напомним, что наша цепь Маркова связана с рекуррентным со- бытием S с распределением {fk} времени возвращения. В частном случае pk=rklrk_1 цепь из предыдущего примера связана с тем же рекуррентным событием S, и в этом случае (7.20) и (7.23) экви- валентны. Следовательно, инвариантные распределения здесь сов- падают. На языке теории массового обслуживания следовало бы сказать, что распределения затраченного времени ожидания и оста-
414 Гл. XV. Цепи Маркова точного времени ожидания сходятся к одному и тому же распреде- лению, а именно к {гп/р}. Основные предельные теоремы для цепей Маркова мы вывели из теории рекуррентных событий. Теперь мы видим, что и, наобо- рот, рекуррентные события могут рассматриваться как специаль- ные цепи Маркова. (См. также пример 11,г).) з) Дважды стохастические матрицы. Стохастическая матрица Р называется дважды стохастической, если не только суммы по строкам, но и суммы по столбцам равны единице. Если такая цепь содержит лишь конечное число а состояний, то инвариантным рас- пределением будет uh=a~\ Это означает, что при макроскопичес- ком равновесии все состояния равновероятны. § 8. НЕВОЗВРАТНЫЕ СОСТОЯНИЙ Мы видели в § 6, что возвратные состояния любой цепи Маркова могут быть разбиты на неперекрывающиеся замкнутые неприводи- мые множества Съ С2,. . . . В общем случае существует также непус- той класс Т невозвратных состояний. Когда система выходит из невозвратного состояния, возникают две возможности: либо систе- ма в конце концов попадает в одно из замкнутых множеств Cv и останется в нем навсегда, либо система останется навсегда во множестве Т невозвратных состояний. Наша главная задача со- стоит в определении соответствующих вероятностей. Решение ее даст нам критерий, позволяющий решить, каким является данное состояние — возвратным или невозвратным. Примеры, а) Мартингалы. Цепь называется мартингалом, ес- ли для каждого / математическое ожидание распределения вероят- ностей {pjh} равно /, т. е. если г) 2М=/. (8-0 k Рассмотрим конечную цепь с набором состояний Ео,. . Еа. Пола- гая в (8.1) j=Q и j=a, мы видим, что роо^Дю^, и поэтому £0 и Еа суть поглощающие состояния. Чтобы избежать тривиальных оговорок, предположим, что цепь не содержит других замкнутых множеств. Отсюда следует, что внутренние состояния Ei,. . ., Ea_f невозвратны, и поэтому процесс рано или поздно закончится либо в Ео, либо в Еа. Из (8.1) выводим по индукции, что при всех п а ^p^k = i. (8.2) 6 = 0 J) Очевидно, если отождествить Ej с целым числом /, то такая цепь будет мартингалом в смысле обычного определения (см. том 2).—Прим, перев.
§8. Невозвратные состояния 415 Но р$—>0 для каждого невозвратного состояния Ek, и поэтому из (8.2) вытекает, что при всех f>0 Рш i/a. (8.3) Иначе говоря, если процесс начинается в Eh то вероятности окончательного поглощения в Ео и Еа равны 1—На и На соответст- венно. б) Частные случаи. Рассмотренные в примерах из генетики 2, з) и 2, и) цепи имеют вид, обсуждавшийся в предыдущем примере, с a=N и a=2/V соответственно. Стало быть, при условии, что на- чальным состоянием является Ег, вероятность окончательного пре- кращения процесса в Ео равна 1—На. в) Рассмотрим цепь с набором состояний Ео, Еи. . ., такую, что Eq — поглощающее состояние, тогда как из других состояний Ef возможны переходы только в правое соседнее состояние Е/+1 и в Ео. Для />1 положим Z’/o=e/> /’/,/+1 = 1—6J. (8-4) где е/>0. При начальном состоянии Ej вероятность непоглощения в Eq в первых п испытаниях равна (1_8.)(1_е,+1). . (8.5) Это произведение убывает с ростом п и, следовательно, стремится к некоторому пределу Отсюда мы выводим, что вероятность окончательного поглощения равна 1—Х7, тогда как с вероятностью А; система навсегда останется в множестве невозвратных состояний. Для положительности Х7 необходимо и достаточно, чтобы Основой для изучения невозвратных состояний является подмат- рица матрицы Р, получающаяся вычеркиванием всех строк и столб- цов, соответствующих возвратным состояниям, и содержащая лишь те элементы pjkl для которых и Е7, и Ek невозвратны. Суммы элементов строк этой подматрицы уже не равны единице, и здесь удобно ввести следующее определение. Определение. Квадратная матрица Q с элементами qik назы- вается субстохастической, если и суммы элементов каждой строки Каждая стохастическая матрица является субстохастической в смысле этого определения, и, наоборот, каждая субстохастическая матрица может быть дополнена до стохастической добавлением пог- лощающего состояния Eq. (Иначе говоря, мы добавляем сверху стро- ку 1, 0, 0,. . ., а слева — столбец, элементы которого равны де- фектам строк х) матрицы Q.) Поэтому очевидно, что все сказанное ДЛктом строки называется разность между единицей и суммой элемен- тов этой строки,— Прим, пер ев.
416 Гл. XV. Цепи Маркова относительно стохастических матриц применимо без существенных изменений и к субстохастическим матрицам. В частности, рекур- рентное соотношение (3.2) определяет n-ю степень Qn как матрицу с элементами (п + 1)_у (п) Qik — QivQvk • (8.6) Обозначим через о’'1> сумму элементов i-й строки Qn. Тогда для п 1 = (8-7) V и это соотношение остается справедливым и для если поло- жить о-^0) = 1 при всех v. Тот факт, что Q является субстохастиче- ской, означает, что ор)^о{-0), и из (8.7) выводим по индукции, что оГ+1)^сг/п). Стало быть, для фиксированного i последовательность {azn)} монотонно убывает к пределу oz^0, и ясно, что (8.8) V Вся теория невозвратных состояний основывается на решениях этой системы уравнений. В некоторых случаях ненулевых решений у (8.8) не существует (т. е. oz=0 для всех I). В других случаях мо- жет существовать бесконечно много линейно независимых реше- ний, т. е. различных последовательностей чисел xz, удовлетворяю- щих системе Ху — Qiv v (8-9) Первая наша задача состоит в том, чтобы охарактеризовать част- ное решение {oj. Мы заинтересованы только в тех решениях {х;}, для которых 0ЙСх;^1 при всех Л Это можно переписать в виде O^xz^oj0); сравнивая (8.9) и (8.7), мы видим, что по индукции xz ozrt) при всех и, и поэтому влечет (8.10) Решение {oz} мы будем называть максимальным, однако следует помнить, что во многих случаях oz=0 при всех i. Наш результат резюмирует следующая лемма. Лемма. Для субстохастической матрицы Q линейная система (8.9) обладает максимальным решением {oz} со свойством (8.10)., Эти oz являются пределами сумм элементов строк матриц Qn. Отождествим теперь Q с подматрицей матрицы Р, составленной только из тех элементов pjh, для которых Ej и Eh невозвратны.
§ 8. Невозвратные состояния 417 Линейную систему (8.9) можно записать в виде Xi^^ptvXv, Е^Т, (8.11) т где суммирование распространяется только на те v, при которых Е принадлежит множеству Т невозвратных состояний. При таком отождествлении oj-n) будет вероятностью того, что за первые п испытаний с начальным состоянием Е{ не произойдет ни одного перехода в какое-либо возвратное состояние. Следовательно, предел равен вероятности того, что ни один такой переход не произойдет никогда. Таким образом, доказана следующая теорема. Теорема 1. Вероятности xt того, что система с начальным со- стоянием Et навсегда останется среди невозвратных состояний, да- ются максимальным решением системы (8.11). Такие же рассуждения дают нам следующий критерий. Критерий. В неприводимойх) цепи Маркова с набором состояний Ео, Ei,. . . состояние Ео является возвратным тогда и только тог- да, когда линейная система 00 i>l, (8.12) v= 1 не допускает никаких решений, удовлетворяющих 0<Х-<Т, за исклю- чением Xi=0 при всех i. Доказательство. Отождествим матрицу Q из леммы с подматри- цей матрицы Р, получающейся вычеркиванием строки и столбца, соответствующих Ео. Рассуждения, использовавшиеся нами в тео- реме 1, показывают, что есть вероятность того, что (при началь- ном состоянии Ei) система навсегда останется среди состояний Ег, Е2,. . . . Но если Ео возвратно, то вероятность ?ю достижения Ео равна 1, и, следовательно, 0^=0 при всех I. Примеры, г) Как и в примере 7, б), рассмотрим цепь с набором состояний Ео, Е19. . ., такую, что Pjh=Q, когда \k—/|>1. (8.13) Чтобы избежать тривиальных оговорок, мы предположим, что Ph и Pj, Эта цепь неприводима, потому что каждое состояние достижимо из любого другого состояния. Поэтому все состояния однотипны, и нам достаточно проверить характер Ео. х) Неприводимость предполагается только для того, чтобы избежать услож- нения обозначений. Никакого ограничения она здесь не представляет, поскольку нам достаточно рассмотреть замыкание £0. Критерий применим также к периоди- ческим цепям, 14 № 221
418 Гл. XV. Цепи Маркова Уравнения (8.12) сводятся к рекуррентной системе zg 14) Pj,i-i(xj—xj_i)=p},j+1(x/+1—Xj), j^2. Поэтому <815> Так как piQ > 0, то х2 — xt > 0, и поэтому ограниченное неотрица- тельное решение {хД существует тогда и только тогда, когда У P2i"-pZ:.Z-^<oo. (8.16) Р23* • *Pj, j + 1 Наша цепь возвратна тогда и только тогда, когда этот ряд рас- ходится. В частном случае случайных блужданий мы имеем pj'i+i—p и pj'j-^q при всех />1, и мы вновь видим, что все со- стояния возвратны тогда и только тогда, когда p^q. (Цепь из этого примера можно интерпретировать как случайное блуждание на прямой с вероятностями, меняющимися от точки к точке.) д) Для матрицы из примера 2, м) уравнения (8.12) сводятся к (8.17) и здесь ограниченное положительное решение существует тогда и только тогда, когда бесконечное произведение ргр2 . . . сходится. Если наша цепь связана с рекуррентным событием <§, то ph даются формулой (2.5), и это произведение сходится тогда и только тогда, когда 2Л'<°°- Таким образом (как и можно было бы предвидеть), и цепь, и событие S либо оба возвратны, либо оба невозвратны. Чтобы ответить на последний вопрос, поставленный в начале этого параграфа, снова обозначим через Т класс невозвратных состояний; пусть С — произвольное замкнутое множество возврат- ных состояний. (Мы не требуем, чтобы С было неприводимым.) Обозначим через yt вероятность окончательного поглощения в С при условии, что начальным состоянием было £\-.Мы намереваем- ся показать, что yt удовлетворяют системе неоднородных уравне- ний = + Ei^T, (8.18) Т с где суммы берутся по тем v, для которых EV^T и EV£C соот- ветственно. Система (8.18) может допускать несколько независимых решений, однако следующее доказательство покажет, что среди них существует минимальное решение, определяемое очевидным образом по аналогии с (8.10).
§ 9. Периодические цепи 419 Теорема 2. Вероятности окончательного поглощения замкну- тым возвратным множеством С даются минимальным неотрица- тельным решением системы (8.18). Доказательство. Обозначим через вероятности поглощения множеством С на n-м шаге или до него. Тогда ясно, что при п^\ ^"+1> = 2Av^w’ + SAv, (8.19) Т о и если мы положим у^} = 0 для всех v, то (8.19) будет справедливо и при п = 0. Для фиксированного i последовательность {r/t-n)} не убывает, но остается ограниченной единицей. Пределы этих после- довательностей, очевидно, удовлетворяют (8.18). Обратно, если {z/z} —произвольное неотрицательное решение системы (8.18), то У^уР поскольку вторая сумма в (8.18) равна По индукции У^У^ при всех я, так что пределы у^п) действительно являются минимальным решением. ► Иллюстрацию к этой теореме см. в примере в). § 9*). ПЕРИОДИЧЕСКИЕ ЦЕПИ Ни трудностей, ни неожиданных новых свойств в случае перио- дических цепей не появляется. Эти цепи были исключены из фор- мулировки главной теоремы в § 7 лишь потому, что они представ- ляют вторичный интерес, а описание их оказывается непропорцио- нально многословным. Содержащееся в настоящем параграфе обсуждение этого случая проводится скорее ради полноты изложе- ния, чем из-за представляемого им интереса. Простейшим примером цепи с периодом 3 является цепь с тремя состояниями, в которой возможны только переходы Е±-^Е^Е^Е±. В этом случае /0 1 0\ /0 Р= 0 0 1 , Р2= 1 Ч 0 0/ \0 0 1\ /10 0\ 0 0, Р3= 010 10/ \0 0 1/ Мы покажем теперь, что этот пример во многих отношениях ти- пичен. Рассмотрим неприводимую цепь с конечным или бесконечным числом состояний Еь Е2, ... .По теореме 6.1 все состояния имеют один и тот же период t (мы предполагаем, что t > 1). Поскольку в неприводимой цепи каждое состояние достижимо из любого дру- гого состояния, то для каждого состояния Ek существуют два целых числа а и Ь, такие, что > 0 и р^1 > 0. Но p^+b p{ikpklt *) Результаты этого параграфа не будут использоваться в дальнейшем. 14,*
420 Гл. XV. Цепи Маркова и поэтому сумма а-\-Ь должна быть кратной периоду t. Фиксируя Ь. мы заключаем, что каждое целое а. для которого pik > 0, имеет вид где а—фиксированное целое, 0^а<Л Целое число ос является характеристикой состояния Ek. и поэтому множество всех состояний может быть разбито на t непересекающихся классов Go, так» что если Ek£Ga. то pik=0 при n=£a-\-vt. (9.1) Мы будем считать, что классы Go, ..., Gt_i упорядочены цикли- ческим образом, так что Gt_± является левым соседом Go. Теперь очевидно, что за один шаг переход возможен только в состояние из правого соседнего класса, и, следовательно, каждый путь из t шагов всегда приводит в состояние из исходного класса. Отсюда вытекает, что в цепи Маркова с переходной матрицей Р* каждый класс Ga будет замкнутым множеством1). Это множество будет неприводимо, потому что в исходной цепи каждое состояние достижимо из любого другого, и внутри одного класса необходимое для этого число шагов с необходимостью должно делиться на t. Таким образом, нами доказана следующая теорема. Теорема. В неприводимой цепи с периодом t состояния могут быть разбиты на t непересекающихся классов Go. ..., Gz-1, таких, что справедливо (9.1) и переходы за один шаг всегда приводят в состояние из правого соседнего класса (в частности, из Gt_t е Go). В цепи с матрицей Р* каждый класс Ga соответствует неприводимому замкнутому множеству. Теперь, используя эту теорему, легко описать асимптотическое поведение переходных вероятностей р{£. Мы знаем, что —►О» если Ек является либо невозвратным, либо возвратным нулевым состоянием, а также что все состояния однотипны (§ 6). Стало быть, нам надо рассмотреть лишь случай, когда каждое состояние Ек имеет конечное среднее время возвращения В цепи с матрицей Р* состояние Ек имеет среднее время возвращения p,fe/Z, и по отноше- нию к этой цепи каждый класс Ga эргодичен. Поэтому, если Ej принадлежит Ga, то t/nk, если EkeGa, 0 в противном случае. ' ’ ' lira p\nkt} = < П -> 00 I *) При / = 3 имеется три класса, и в символической блочной записи, вве- денной в § 4, матрица Р принимает вид 0 А 0\ О 0 В ), С 0 О/ где А—матрица вероятностей переходов из Go в Gf, и т. д.
§ 10. Применение к тасованию карт 421 и веса tl\kk определяют распределение вероятностей на состояниях из класса Ga (см. теорему § 7). Поскольку всего у нас t таких классов, то числа uk = 1/р^ определяют распределение вероятностей на множестве всех состояний, как это было и в случае неперио- дических цепей. Мы покажем, что это распределение инвариантно. Для этой цели нам нужны соотношения, соответствующие (9.2), когда показатель степени не делится на период t. Мы отправимся от фундаментального соотношения (n/ + P)_V л(Р)л(«0 /О Q\ Pjk -----Pjv Pvk • W'O) V Множитель p$ обращается в нуль, за исключением тех случаев когда Ev принадлежит Ga+3. (Если a + Р^^, то под Ga+P следует понимать Ga+P_z.) В этих случаях pvT обращается в нуль, если Ek не лежит в Ga+P, и, следовательно, для фиксированных р и Ej из Ga lim „("<+₽>_ J lim =• n П -> ao ( V если Ek$Ga+fi, в противном случае. (9.4) Перепишем теперь (9.3) в виде (П/+1)_ VI (nt) /П EX Pik —£jPiv Pvk- v Рассмотрим произвольное состояние Ek\ пусть Gp—тот класс, кото- рому оно принадлежит. Тогда pvk = 0, если Ev(£ Gp_x, и поэтому обе части равенства (9.5) обращаются в нуль, если Е(-(£ Gp_v В этом случае p$/+1) —+ tuk, откуда Ufr ~ ^vPvk‘ (9 -6) Поскольку Ek — произвольное состояние, то тем самым мы дока- зали, что распределение вероятностей {ик} инвариантно. $ 10. ПРИМЕНЕНИЕ К ТАСОВАНИЮ КАРТ Колоду из N карт, занумерованных числами 1,2,. . ., N, можно упорядочить АЛ различными способами, и каждый из них представ- ляет возможное состояние этой системы. Каждая отдельная опе- рация тасования колоды осуществляет переход от имеющегося со- стояния в некоторое другое. Например, «снимание» заменит поря- док (1,2,..., N) на один из N циклически эквивалентных порядков (г, г+1,. . ., N, 1, 2,. . ., г—1). Та же операция, примененная к об- ратному порядку (N, N—1, . . 1), приведет к состоянию (N—г+1, N—г,..1, N, N—1, . .N—г+2). Иначе говоря, каждую отдель- ную операцию тасования колоды мы представляем себе как преобра- зование Ej-^Eh. Если повторять в точности одну и ту же операцию,
422 Гл, XV, Цепи Маркова то система пройдет (начиная с данного состояния Ej) через вполне определенную последовательность состояний, и в результате после конечного числа шагов восстановится первоначальный порядок. С этих пор эта последовательность состояний будет периодически повторяться. Для большинства операций этот период будет до- вольно мал, и ни в одном случае с помощью такой процедуры не мо- гут быть получены все состояния х). Например, точная «врезка» сменила бы в колоде из 2m карт порядок (1,. . ., 2m) на (1, т+1, 2, т+2,. . т, 2т). В колоде из 6 карт начальный порядок вос- станавливает четырехкратное применение этой операции. При де- сяти картах начальный порядок появится вновь после шести опе- раций, так что повторное применение этой операции к колоде из десяти карт может привести только к шести из 10! =3 628 800 воз- можных порядков расположения карт. На практике игрок может пожелать варьировать операцию та- сования, и, конечно, разного рода отклонения будут вызваны игрой случая. Предположим, что мы можем учесть привычки игрока и влияние случайных отклонений, считая, что каждая отдельная операция имеет определенную вероятность (возможно, нулевую). Ни в каких допущениях относительно численных значений этих ве- роятностей мы не нуждаемся, но будем предполагать, что действия игрока не зависят от прошлого и что он не знает порядка карт* 2). Отсюда вытекает, что последовательные операции соответствуют независимым испытаниям с фиксированными вероятностями; для самой колоды карт мы тогда имеем цепь Маркова. Покажем теперь, что матрица переходных вероятностей Р яв- ляется дважды стохастической (пример 7, з)). Действительно, если операция изменяет состояние (порядок карт) Ej на Ek, то существует другое состояние Ег, которое этой операцией изменяет- ся на Ej. Это означает, что элементы /-го столбца матрицы Р совпа- дают с элементами ее /-й строки с той лишь разницей, что распола- гаются они там в другом порядке. Поэтому все суммы по столбцам равны единице. Отсюда следует, что ни одно из состояний не может быть невоз- вратным. Если цепь неприводима и непериодична, то в пределе все состояния станут равновероятными. Иначе говоря, годится любой способ тасования, если только он приводит к неприводимой и непе- риодичной цепи. Можно с уверенностью полагать, что обычно так оно и есть. Предположим, однако, что колода содержит четное чис- ло карт и наша процедура состоит в разделении их на две равные х) В терминологии теории групп это равносильно утверждению, что группа перестановок не является циклической и поэтому не может порождаться одной операцией. 2) Это предположение соответствует обычной ситуации при игре в бридж. Легко придумать более сложную технику тасования, при которой операции будут зависеть от предшествующих действий и окончательный результат не будет цепью Маркова (см, пример 13, д)).
11. Инвариантные меры. Предельные теоремы для отношений 423 части и в тасовании последних отдельно друг от друга любым мето- дом. Если эти две части складываются затем вместе в их первона- чальном порядке, то полученная цепь Маркова будет приводимой (поскольку не из каждого состояния достижимо любое другое со- стояние). Если же эти части складываются в обратном порядке, то цепь будет иметь период 2. Теоретически могут возникнуть обе эти возможности, но практически они едва ли осуществимы, поскольку из-за влияния случая операции не могут выполняться абсолютно точно. Итак, вполне можно ожидать, что продолжительное тасование приведет к полной «случайности» и уничтожит все следы первона- чального порядка. Следует отметить, однако, что необходимое для этой цели число операций чрезвычайно велико х). § 11* *). ИНВАРИАНТНЫЕ МЕРЫ. ПРЕДЕЛЬНЫЕ ТЕОРЕМЫ ДЛЯ ОТНОШЕНИЙ В этом параграфе мы рассмотрим неприводимую цепь с возврат- ными нулевыми состояниями. Наша главная цель — вывести ана- логи для результатов, полученных в § 7 для цепей, в которых со- стояния имеют конечные средние времена возвращения. Характер- ным свойством таких цепей является существование инвариантного (или стационарного) распределения вероятностей, определяемого соотношением Ufo = H'vPvk’ (11’0 V Мы знаем, что в случае, когда средние времена возвращения бес- конечны, такое инвариантное распределение вероятностей не су- ществует, но мы покажем, что линейная система (11.1) все же до- пускает положительное решение {ик}, такое, что ^ик=оо. Такое решение {ик} называется инвариантной (или стационарной) ме- рой. Если цепь неприводима и возвратна, то инвариантная мера единственна с точностью до произвольной нормирующей постоян- ной. Примеры, а) Предположим, что матрица переходных вероятнос- тей Р дважды стохастическая, т. е. суммы и по столбцам, и по стро- -1) По поводу анализа невероятно плохих результатов тасования в записях экспериментов по экстрасенсорному восприятию см. Feller W., Statistical aspects of ESP, Journal of Parapsychology, 4 (1940), 271—298. Гринвуд и Стюарт в своей поразительной статье (Greenwood J. A., Stuart С. Е., A review of Dr. Feller’s cri- tique, там же, 299—319) пытаются показать, что эти результаты обусловлены случаем, однако и их вычисления, и их эксперименты имеют определенный отте- нок сверхъестественности. *) Этот и следующий параграфы посвящены вопросам, играющим важную роль в современных исследованиях, однако полученные в них результаты не будут использоваться в настоящей книге,
424 Гл. XV. Цепи Маркова кам равны единице. Тогда справедливо (11.1) при uk=l для всех k. Чтобы выразить этот факт, говорят, что равномерная мера инва- риантна. б) Случайные блуждания. Интересным частным случаем цепи из предыдущего примера является неограниченное случайное блужда- ние на прямой. Занумеруем состояния в их естественном порядке от —оо до оо. Это не позволит нам представить переходные вероят- ности в обычной форме матрицы, однако необходимые изменения обозначения очевидны. Если переходы в правое и левое соседние состояния имеют вероятности р и q соответственно, то система (11.1) принимает вид uh=puk-i+quk+1, —оо<Л<оо. Состояния возвратны только при /?=<7= 1/2, и в этом случае uk=l является единственным положительным решением. Это решение со- храняется и при p=^=q, однако оно уже не будет единственным; вто- рым неотрицательным решением будет uh= (p/q)k. Этот пример доказывает, что инвариантная мера может существовать и у невоз- вратных цепей, но уже не обязана быть единственной. Мы вернемся к этому интересному вопросу в следующем параграфе. Инвариантную меру {Uj\ можно интерпретировать на интуитив- ном уровне, если рассмотреть одновременно бесконечно много про- цессов с одной и той же матрицей Р переходных вероятностей. Для каждого / определим случайную величину Nz, имеющую рас- пределение Пуассона со средним и^ и рассмотрим Ny- независимых процессов, начинающихся из Ej. Мы делаем это для всех состояний одновременно, предполагая, что все процессы взаимно независимы. Нетрудно показать, что в каждый данный момент времени в любом заданном состоянии Ек с вероятностью единица может быть лишь конечное число процессов. Стало быть, число процессов, находя- щихся на n-м шаге в состоянии Ек, является случайной величиной Х1п), и инвариантность \ик\ влечет равенство Е\Хкг)} = ик для всех п (см. задачу 29). в) В примере 7, е) мы обнаружили, что инвариантное распреде- ление вероятностей существует только тогда, когда сходится ряд (7.21). В случае когда он расходится, (7.20) все еще будет инва- риантной мерой, если uk-*-0, а это равносильно тому, что pi/?2- • . . . Инвариантной меры не существует, когда произведение рг. . .pk остается отделенным от 0, например когда рЛ=1—(&4-1)~2- В этом случае цепь невозвратна. г) В примере 7, ж) соотношения (7.23) определяют инвариант- ную меру даже тогда, когда ц=оо. В эргодических цепях вероятности pffl стремятся к значению ик. инвариантного распределения вероятностей. Для возвратных нуле- вых цепей мы докажем слабый вариант этого результата, а именно.
§ 11. Инвариантные меры. Предельные теоремы для отношений 425 что для всех Еа и Е3 при N —> оо N \ / N 2 т) ] V Pai \ Zi Рв/ ,п = 0 / \/? = 0 UjUj. (П.2) Суммы в левой части представляют собой математические ожидания числа прохождений через Ez- и Еу- за первые W испытаний. Грубо говоря, (11.2) утверждает, что эти математические ожидания асимп- тотически независимы от начальных состояний Еа и Е3 и находятся в той же пропорции, что и соответствующие значения инвариантных мер. Таким образом, характерные факты здесь те же, что и в случае эргодических цепей, хотя ситуация и более запутана. С другой стороны, периодические цепи не требуют теперь специального рас- смотрения. (В действительности (11.2) справедливо для всех [непри- водимых.— Перев.] возвратных цепей. Для эргодической цепи чис- литель в левой части равен ~ Nuf.) Соотношения вида (11.2) называются предельными теоремами для отношений. Мы выведем (11.2) из более сильного результата, который до недавнего времени рассматривался как более сложное уточнение. Наши доказательства основываются на рассмотрении только тех путей, которые не проходят через некоторое выделенное состояние Ег. Следуя Чжун Кайлаю, мы назовем это запрещенное состояние табу, а вероятности перехода в него — табу-вероятно- стями. Определение. Пусть Ег—произвольное фиксированное состояние. Для Ek^= Ег и п^ 1 мы обозначим через гр{£ вероятность того, что начинающийся из Ef процесс попадет на п-м шаге в состояние Ek, не заходя по пути в Ег. Здесь Ej может совпадать с Ег. Мы распространим это опреде- ление естественным образом на случаи Eh=Er и п=0, полагая гр^ = 0, п>1, (11.3) и если Ej — Ek, в противном случае. В аналитической записи мы имеем для и Eh^Er n(n+i) n(«)n rPik — Zt rPiv Pvk* V (Н.4) (П.5) В действительности при n=Q сумма в правой части сводится к од- ному члену, а именно к pjh. При п^\ соответствующий v=r член обращается в нуль в силу (11.3), так что (11.5) эквивалентно пер- воначальному определению. Введение табу на состояние Ег равносильно рассмотрению ис- ходного марковского процесса лишь до первого достижения состоя-
426 Гл. XV. Цепи Маркова ния Ет. В неприводимой возвратной цепи состояние Ег достигается с вероятностью единица из любого начального состояния Ej. От- сюда следует, что в цепи с табу Ет последовательные прохождения через начальное состояние Ej составляют невозвратное рекуррент- ное событие, а прохождения через любое другое состояние Ек-=^ЕГ составляют невозвратное рекуррентное событие с запаздыванием. Поэтому в силу основной теоремы 2 гл. XIII, 3 для Ek^=Er 2 < °°- О1-6) п=0 При Eh=Er слагаемые с обращаются в нуль и сумма сводится к 1 при j=r и к 0 при /^=г. Теперь мы в состоянии доказать существование инвариантной меры, т. е. чисел uk, удовлетворяющих (11.1). В доказательстве теоремы 2 это использоваться не будет. Теорема 1. Если цепь неприводима и возвратна, то последова- тельность чисел uk = rnrk (11.7) представляет собой инвариантную меру, более того, uh>Q для всех k, а иг=\. Обратно, если uk^0 при всех k и справедливо (11.1), то суще- ствует постоянная X, такая, что uh=K-rnrk. Состояние ЕТ здесь произвольно, однако из единственности вы-* текает, что получаемые при разных г последовательности {uk} от- личаются лишь множителями пропорциональности. Заметим, что теорема и ее доказательство охватывают также случай цепей с ко- нечными средними временами возвращения. Доказательство. Если k^=r, то, суммируя (11.5) при /=г по и=0, 1,. . ., получаем “ 2 r^rvPvb (11.8) V так что числа (11.5) удовлетворяют уравнениям (11.1) хотя бы при k^r. При j=k=r ясно, что 2rP%Pvr = f?M> (11.9) V есть вероятность того, что (в исходной цепи) первое возвращение в Ег произойдет на (n+Ц-м шаге. Поскольку цепь неприводима и возвратна, в сумме эти вероятности составляют единицу. Поэтому, суммируя (11.9) по п=0, 1,. . ., мы получаем 2 г^rvpvr — 1 • (11.10)
§ 11. Инвариантные меры. Предельные теоремы, для отношений 427 Но по определению глгг=1, так что (11.8) справедливо и при k=r. Следовательно, (11.7) действительно представляет собой инвари- антную меру. Рассмотрим, далее, произвольную неотрицательную инвариант- ную меру {uk}. Из определения (11.1) ясно, что если uk = 0 при некотором й, то uv = 0 для всех v, таких, что pVk > 0. По индукции отсюда следует, что uv = 0 при каждом v, таком, что Ek достижимо из Ev. Поскольку цепь неприводима, отсюда вытекает, что uv = Q для всех v, Поэтому инвариантная мера строго положительна (или тождественно равна нулю). Стало быть, в обратном утверждении теоремы мы можем считать, что заданная инвариантная мера нормирована условием иг=1 для некоторого заранее выбранного г. Тогда Uk = Pkr+ I] U-p-k. (П-11) / =# Г Предположим, что k^r. Подставим под знаком суммы вместо чи- сел щ соответствующие им выражения из соотношения (11.1) и в полученной двойной сумме снова выделим содержащий иг член. В результате имеем uk Prk + rPrk + S uv\'rP^k- (11.12) V =# г Продолжая в том же духе, мы получим для каждого п Uk = Prk + rp^k + • • • + г Prk + 2 Uy’rPvk' (11.13) V Ф г Устремляя п к оо, мы видим, что uk^ rnrk. Отсюда следует, что {uk—определяет [неотрицательную.— Перев.] инвариантную меру, обращающуюся в нуль при k — г. Но такая мера равна нулю тождественно, и тем самым справедливо (11.7). ► Вскоре мы увидим, что уточнением предельной теоремы для отношений является следующая теорема. Теорема 2. В неприводимой возвратной цепи для всех N N N О 2 № - 2 41’ с (11.14) п=0 п=0 и N N -1<(1/^ZZ) з ^-(i/zMS^’^1- о1-15) п=0 п=0 Доказательство (11.14). Рассмотрим первое попадание в Ек\ ясно, что при p^=ifX-v>. оме) v= 1
428 Гл. XV. Цепи Маркова (Это то же самое, что (5.3).) Суммируя по п, получаем ipScipff-SfS’-SpS’. ом?» п = 0 n=0 v=l п = 0 что доказывает первое неравенство в (11.14). Заметим теперь, что при выходе из Ek возвращение в Ek [на п-м шаге.— Перев.] произойдет либо без промежуточного прохож- дения через Еа, либо первое попадание в Еа произойдет на v-m шаге, l^v^n. Это означает, что п Ап) Ап) । V Av)An~v) /11 io\ Pkk = aPkk + Ikapak • (11.Io) v=l Суммирование по n приводит ко второму неравенству в (11.14). ' Доказательство (11.15). В силу очевидной симметрии i и / до- статочно доказать второе неравенство. Мы отправимся от тождества п — 1 3 <11-19) V=1 которое выражает тот факт, что возвращение из Е{ в Е{ происходит либо без промежуточного прохождения через Ej, либо последнее попадание в Ej имеет место на (п—у)-м шаге и следующие v ша- гов приводят из Ej в Et без возвращения в Ej. Суммируя по пг в силу (11.14) получаем N N N 2 ри}<А,- + 2 Pi? </л,/ + -л/; 2 р)?. (11,20> п = 0 п=0 п = 0 Чтобы привести это неравенство к симметричному виду (11.15)> достаточно заметить, что = р,../ .ftjj. (11.21)' Действительно, по аналогии с (11.16) = /ht ’ (11 • 22) где jfji — вероятность достижения Et из Ej без предварительного возвращения в Ej. Альтернативой для этого события является воз- вращение в Ej до достижения и, следовательно, if(11.23) (Последнее уравнение является основным тождеством для невоз- вратного рекуррентного события, состоящего в возвращении в Ej. без промежуточного прохождения через Ef.) Подставляя (11.23) в (11.22), получаем утверждение (11.21), и доказательство теоремы этим завершаетсяе
§ 12. Обращенные цепи. Границы 429 Из соотношения (11.21) вытекает интересное следствие. Следствие 1. Если {uk}— инвариантная мера, то i7tjj = Ui/Uj. (11.24) Доказательство. Инвариантная мера определяется с точностью до постоянного множителя, и поэтому правая часть в (11.24) опре- делена единственным образом. Стало быть, мы можем предполо- жить, что {ик} есть инвариантная мера, определенная в (11.7), когда запрещенное состояние Ег отождествляется с Ej. Но тогда Uj= 1 и jttji=Ui, и поэтому (11.21) сводится к (11.24). ► Следствие 2. (Предельная теорема для отношений.) Для непри- водимой возвратной цепи справедливо предельное соотношение (11.2). Доказательство. Суммы из теоремы 2 стремятся к оо при N—^oo. Стало быть, отношение двух сумм в (11.14) стремится к единице, и поэтому достаточно доказать (11.2) для частного случая a=i и Р=/. Однако при таком выборе (11.2) является непосредственным след- ствием (11.15) и (11.24). ► Существование инвариантной меры для возвратной цепи впервые доказал Дерман1). Существование предела в (11.2) установил Дёблин2). Табу-вероят- ности в качестве мощного инструмента теории цепей Маркова ввел Чжун Кайлай3); более детально они изучаются в его фундаментальном труде4). N Ограниченность частных сумм 2 (pkk—Pi?) доказал Орей, рассматривавший и=0 также вопрос о сходимости5). § 12*). ОБРАЩЕННЫЕ ЦЕПИ. ГРАНИЦЫ При изучении эволюции некоторой системы мы обычно интере- суемся вероятностями возможных будущих событий, однако иногда бывает необходимо изучать и прошлое. В специальном случае цепи Маркова мы можем поинтересоваться, чему равна (условная) ве- роятность того, что в определенный момент в прошлом система г) Derman С., A solution to a set of fundamental equations in Markov chains, Proc. Amer. Math. Soc., 5 (1954), 332—334. 2) Doeblin W., Sur deux problemes de A. Kolmogoroff concernant les chaines denombrables, Bull. Soc. Math, de France, 66 (1938), 1—11. 3) Chung K. L., Contribution to the theory of Markov chains, I, Journ. Research, Nat. Bureau of Standards, 50 (1953), 203—208; II, Trans. Amer. Math. Soc., 76 (1954), 397—419. 4) Chung K. L., Markov chains with stationary transition probabilities, Berlin, Springer, 1960. [Имеется перевод: Чжун Кай-лай. Однородные цепи Маркова.— М.: Мир, 1964.] 5) Orey S., Sums arising in the theory of Markov chains, Proc. Amer. Math, Soc., 12 (1961), 847—856. *) См. примечание на с. 423,
430 Гл. XV. Цепи Маркова была в состоянии Е^ при условии, что в настоящем ее состоянием является Ej. Рассмотрим сперва цепь, имеющую строго положительное ин- вариантное распределение вероятностей {uh}, т. е. предположим, что uk>0 и ^uh=l, где = (12.1) (Напомним, что по теореме из § 7 инвариантное распределение ве- роятностей в неприводимой цепи автоматически будет строго поло- жительным.) Если начальное распределение совпадает с {uk}, то в любой момент времени вероятность того, что система находится в состоя- нии Ei9 будет равна нг*. При условии, что это событие осуществи- лось, условная вероятность того, что п единиц времени назад си- стема была в состоянии Ej, равна = (12.2) При п=1 получаем Qij ujpji^i* (12.3) В силу (12.1) ясно, что qtj- являются элементами стохастической матрицы Q. Более того, вероятности q{ff являются просто элемен- тами n-й степени Qn этой матрицы (иначе говоря, qffl можно вы- числить по qij точно так же, как pw> вычисляются по р7). Теперь очевидно, что изучение прошлой эволюции нашей цепи Маркова сводится к изучению цепи Маркова с переходными вероятностями qi}-. Безусловные вероятности для новой цепи совпадают, конечно же, с инвариантным распределением вероятностей {uk}. Вероятности qif называются обращенными вероятностями (по отношению к исход- ной цепи), и процедура, приводящая от одной цепи к другой, называется обращением времени. В частном случае, когда qi}- = р^, говорят, что цепь обратима] вероятностные соотношения для такой цепи симметричны по времени. Мы знаем, что неприводимая цепь обладает инвариантным рас- пределением вероятностей только тогда, когда ее состояния имеют конечные средние времена возвращения. Если состояния цепи воз- вратные нулевые, то существует инвариантная мера, единственная с точностью до постоянного множителя. Для невозвратных цепей возможны все варианты: некоторые цепи не имеют инвариантных мер, другие имеют их бесконечно много (см. примеры 11,6) и 11,в)). При этих обстоятельствах заслуживает внимания тот факт, что пре- образование (12.3) определяет стохастическую матрицу Q, если {uk} является строго положительной инвариантной мерой. Степени матрицы Q даются формулой (12.2). В этом смысле каждая строго положительная инвариантная мера определяет обращенную цепь Маркова. К сожалению, новые переходные вероятности q^
» 12, Обращенные цепи» Границы 431 нельзя интерпретировать непосредственно как условные вероятно- сти для исходного процесса х). Из (12.3) ясно, что {tij} является инвариантной мерой и для обращенной цепи. Более того, из (12.2) следует, что ряды 2?t7) и п оба сходятся или оба расходятся. Отсюда следует, что со- п стояния обеих цепей имеют один тип*, если одна из цепей невоз- вратна, либо возвратна, то такова же и другая. Примеры, а) Инвариантное распределение вероятностей, соответ- ствующее модели Эренфестов (пример 2, д)), было найдено в (7.16). Простое вычисление показывает, что модель Эренфестов обратима в том смысле, что qu=ptj. б) В примере 11,6) мы нашли инвариантные меры, соответству- ющие случайному блужданию на прямой, в котором переходы в правую и левую соседние точки имеют вероятности р и q соответст- венно. Если мы выберем меру с uk=l при k=0, ±1,4=2,. . ., то получим qu=Pjt и тем самым придем к случайному блужданию, в котором р и q поменялись ролями. С другой стороны, инвариантная мера с uk=(p/q)k приводит к обращенному блужданию, совпадаю- щему с исходным. в) В примерах 2, л) и 2, м) мы ввели две цепи Маркова, связан- ные с рекуррентным событием <£. В примере 7,ж) мы видели, что для возвратного <§ с конечным средним временем возвращения р. эти две цепи имеют одно и то же инвариантное распределение ве- роятностей, определенное в (7.23). При ц=оо эти соотношения опре- деляют общую для обеих цепей инвариантную меру (см. примеры 11,в) и 11,г)). Простое вычисление показывает теперь, что эти две цепи получаются одна из другой при обращении времени. Это и не удивительно, поскольку цепь из примера 2,л) связана со временем ожидания следующего осуществления события <§, тогда как при- мер 2,м) относится ко времени, прошедшему с момента последнего осуществления этого события. Рассмотрим теперь произвольную неприводимую невозврат- ную цепь с инвариантной мерой {uk}. Определяющие инвариант- ную меру уравнения (12.1) могут допускать и другие решения, и вопрос о единственности для этой системы тесно связан с вопросом о единственности для сопряженной системы линейных уравнений * 2) ^• = 2Wv, (12.4) V х) Для конкретной интерпретации g/у необходимо рассмотреть бесконечно много одновременно протекающих процессов, как было указано в примере 11,6). 2) Если через £ обозначить вектор-столбец с компонентами то система (12.4) будет эквивалентна векторно-матричному уравнению | = Р£. Система (12.1) соответствует уравнению u = uPt где и—вектор-строка*
432 Гл. XV. Цепи Маркова сыгравшей важную роль в § 8. Эта система допускает тривиаль- ное решение ^i = c при всех i. Каждое неотрицательное решение автоматически будет строго положительным. (В самом деле, из Ez = 0 вытекало бы, что = 0 при всех v, таких, что ptv > 0. Это, в свою очередь, означало бы, что £v = 0 при р(Д! > 0, и вообще gv = 0 для каждого достижимого из Е{ состояния Ev. Поэтому gv = 0 для всех v, ибо цепь неприводима.) Если — непостоян- ное решение (12.4), то (12.3) показывает, что = (12.5) определяет инвариантную меру для обращенной цепи с матрицей Q. И обратно, если обозначить такую меру через {иД то (12.5) будет определять положительное решение системы (12.4). Иначе говоря, положительные решения (12.4) состоят во взаимно одно- значном соответствии с инвариантными мерами для обращенной цепи х) с матрицей Q. В современной теории цепей Маркова и потенциалов положи- тельные решения {£i} и {uk} используются для определения гра- ниц. Описание того, как это делается, выходит за рамки нашей книги, однако следующие примеры могут дать некоторое понятие о том, что называется границей-выходом (exit boundary). Примеры, а) Рассмотрим случайное блуждание на бесконечной прямой, такое, что из состояния /т^=0 частица с вероятностью р перемещается на единичный шаг в направлении от начала коорди- нат и с вероятностью q — на единичный шаг к началу координат. Из нуля частица перемещается с равными вероятностями в +1 или в —1. Мы предположим, что p>q. В этой цепи Маркова состояния занумерованы числами от —оо до +оо и уравнения (12.4) принимают вид = + > о, t = (l/2)4-(1/2) (12.6) ^ = <&+i + P^-i> l’<°- x) Для неприводимой возвратной цепи инвариантная мера единственна с точностью до постоянного множителя. Поскольку цепи с матрицами Р и Q однотипны, то нами доказана следующая теорема. Теорема. Для неприводимой возвратной цепи единственным неотрицатель- ным решением системы (12.4) является const. Это можно доказать также почти дословным повторением последней части доказательства теоремы 1 § 11. В самом деле, по индукции мы нахо- дим, что чля произвольных it г и п = [АР 4- • • • + Л^] ьг 4- 2 гР% Bv- V Для возвратной цепи выражение внутри скобок стремится к 1, тогда как ряд сходится к 0. Следовательно, ^ — ^Г1 как и утверждалось.
§ 12. Обращенные цепи. Границы 433 Положим = 1 1-(1/2)(9/р)‘ Л/ I (1/2) {qlp)~‘ при /^0, при f^O. (12.7) Легко видеть, что £z = t]z и gz=l—nz определяют два1) нетриви- альных решения системы (12.6). Отсюда следует, что наша цепь невозвратна, и поэтому положение частицы с необходимостью устре- мится либо к +°о, либо к —оо. К этому заключению можно прийти и непосредственно из теории случайных блужданий. В самом деле, из гл. XIV, 2 мы знаем, что если частица выходит из положения 1>0, то вероятность того, что она когда-либо достигнет нуля, равна (q/pY. В силу симметрии вы- ходящая из нуля частица имеет равные вероятности сноса в +оо и в —оо, и поэтому вероятность окончательного сноса в частицы в —оо равна (\/2(q/pY. Мы заключаем, что щ есть вероятность того, что выходящую из произвольного положения i частицу в конце кон- цов снесет #+оо. Снос в —оо имеет вероятность 1—гр. В современ- ной теории эта ситуация была бы описана посредством введения «то- чек границы-выхода» +оо и —оо. б) Простота предыдущего примера несколько обманчива, и поэ- тому может быть полезно иметь пример границы, состоящей из бес- конечного числа точек. Рассмотрим для этой цели следующее случай- ное блуждание в плоскости х, у. Координата х совершает обычное случайное блуждание, в котором шаги +1 и —1 имеют вероятности р и q<p. Координата у остается фиксированной, за исключением тех моментов, когда координата х обращается в нуль, и в эти моменты координата у уменьшается на 1. Точнее когда /=#0, возможны толь- ко переходы (/, &)->(/+1, k) и (j — 1, k), и они имеют вероятности р и q<Zp соответственно. Из положения (0, k) частица с вероятностью р перемещается в (1, k—1) и с вероятностью q — в (—1, k—1). Из теории случайных блужданий мы знаем, что координата х обязана стремиться к -фоо и что (с вероятностью единица) она лишь конечное число раз пройдет через 0. Отсюда следует, что (исключая событие нулевой вероятности) координата у изменится лишь конечное число раз. Это означает, что после конечного числа изменений координаты у частица навсегда останется на прямой у— г. В этом смысле существует бесконечно много «путей бегства в бес- конечность», и для каждого начального положения (/, k) мы можем вычислить2) вероятность £ того, что частица в конце концов х) Наиболее общее решение системы (12.6) дается формулой £/= Л+Вгщ где А и В — произвольные постоянные Действительно, эти постоянные могут быть выбраны так, чтобы получить заданные значения и а из (12.6) очевидно, что значения и определяют все £z единственным образом. 2) Явное выражение для может быть получено из относящихся к од- номерным случайным блужданиям результатов гл. XIV,2. Для начального положения вероятность того, что частица побывает в нуле ровно р>0
434 Гл, XV. Цепи Маркова обоснуется на прямой у = г. Легко видеть, что для фиксирован- ного г вероятности представляют собой решение системы, со- ответствующей (12.4), и что наиболее общее решение такой си- стемы является линейной комбинацией этих частных решений. Более того, частное решение характеризуется тем интуитивно оче- видным «граничным условием», что —>0 при /—>оо, за исклю- чением случая k = r, в котором Эти примеры типичны в следующем смысле. Для данной непри- водимой невозвратной цепи Маркова всегда можно определить «границу», такую, что с вероятностью единица состояние системы стремится к некоторой точке этой границы. Если нам дано мно- жество Г на границе, то мы можем поинтересоваться, какова вероятность r]z того, что, выходя из начального состояния Eir система устремится к точке из Г. Назовем вероятностями поглощения в Г. Оказывается, что такие вероятности поглощения всегда являются решениями линейной системы (12.4), и, наоборот, все ограниченные решения (12.4) представляют собой линейные комбинации вероятностей поглощения. Более того, вероятности -{щ-} поглощения в Г даются единственным решением системы (12.4), которое имеет граничное значение 1 на Г и граничное значение 0 на дополнении Г до границы. Мы теперь можем образовать новую стохастическую матрицу Р с элементами Pik = Pik^kl^i- (12.8) Это условная вероятность перехода из Et в Ek при условии, что сис тема в конечном счете устремится к одной из точек Г. Марковский процесс с матрицей Р может быть описан как условный процесс, получающийся из исходного процесса при условии окончательного поглощения в Г. Поскольку будущая эволюция никогда не может быть известна заранее, такой переход на первый взгляд кажется бессмысленным. Тем не менее он является мощным аналитическим инструментом и даже имеет реальный смысл для процессов, которые протекают уже очень длительное время. Граница может быть определена также и для матрицы Q, полу- чаемой при обращении времени. Стало быть, в общем случае сущест- вуют две различные границы, соответствующие данной цепи. Они раз, равна (2^)р~* 1 (р—д); при t^O эта вероятность равна (д/рУ (2^)р-1 (р—q). Вероятность никогда не попасть в нуль равна 0 при и 1—(q/рУ при 1^0. Отсюда легко получить, что при Wk=(2q^-'~l(P-q), k>r, тогда как при i > 0 lVk = (q/P)! (2q^-r-i (p—q), k> r, l<i’r=l~(q/py и, конечно же, = 0 при k < r.
§ 13. Общий марковский процесс 435 называются соответственно граница-вход (entrance boundary) и гра- ница-выход. Грубо говоря, первая из них относится к отдаленному прошлому, а вторая — к отдаленному будущему. Обращенные цепи впервые рассмотрел А. Н. Колмогоров1). Роль решений системы (12.4) была подчеркнута в предыдущих изданиях этой книги. Границу- вход и границу-выход ввел В. Феллер 2). Предложенное им построение удовлетво- рительно, когда существует лишь конечное число граничных точек, а в общем случае, как указал Дж. Л. Дуб 3), проще принять построение, введенное в теории гармонических функций Р. С. Мартином. Величины (12.8) были введены В. Фел- лером 2); аналогичное преобразование в теории классических гармонических функ- ций было определено примерно в то же время М. Брело 4). § 13. ОБЩИЙ МАРКОВСКИЙ ПРОЦЕСС В приложениях обычно бывает удобно описывать цепи Маркова в терминах случайных величин. Это может быть сделано с помощью простой замены в предыдущих параграфах символа Ек на целое число k. Состояние системы в момент времени п будет тогда слу- чайной величиной Х(п), принимающей значение k с вероятностью а^\ совместное распределение Х(п) и Х(п+1) дается формулой Р{Х(п) = /, Xu+1) = &} = (tfpPjk, а совместное распределение (Х(о), .. , X(zz))—• формулой (1.1). Можно также (иногда это предпочтительнее) при- писывать состоянию Ек численное значение ек, отличное от k. При такой записи цепь Маркова становится специальным стохастиче- ским процессом5), или, иначе говоря, последовательностью (зави- симых) случайных величин6) (Х(о), Х(1), ...). Верхний индекс п играет роль времени. В гл. XVII мы получим некоторое представ- ление о более общих стохастических процессах, в которых временной параметр может меняться непрерывно. Термин «марковский процесс» применяется к весьма обширному и важному классу стохастических процессов (как с дискретным, так и с непрерывным временем). Даже в дискретном случае существуют более общие марковские процессы, чем те простые цепи, которые изучались нами до сих пор. Поэтому будет полезно дать определение марковского свойства, указать спе- х) Kolmogoroff A., Zur Theorie der Markoffschen Ketten, Mathematische Anna- len, 112 (1935), 155—160. 2) Feller W., Boundaries induced by positive matrices, Trans. Amer. Math. Soc., 83 (1956), 19—54. 3) Doob J. L., Discrete potential theory and boundaries, J. Math. Mechanics, 8 (1959), 433—458. 4) Brelot M., Le probleme de Dirichlet. Axiomatique et frontiere de Martin, J. Math. Pures Appl., 35 (1956), 297—335. 5) Термины «стохастический процесс» и «случайный процесс» являются си- нонимами и охватывают практически всю теорию вероятностей от бросания монеты до гармонического анализа. На практике термин «стохастический процесс» ис- пользуется главным образом тогда, когда рассматривается случай непрерывного времени. 6) Эта формулировка относится к бесконечному произведению пространств, но в действительности мы имеем дело лишь с совместными распределениями конеч- ных наборов случайных величин,
436 Гл. XV. Цепи Маркова циальное условие, характеризующее наши цепи Маркова, и, на- конец, привести несколько примеров немарковских процессов. По идее марковский процесс является вероятностным аналогом процессов классической механики, где будущая эволюция полностью определяется состоянием в настоящий момент и не зависит от того, каким образом это состояние было достигнуто. Эти процессы су- щественно отличаются от процессов с последействием (или с наслед- ственностью х)), таких, которые встречаются, например, в теории пластичности, где вся предыдущая история системы влияет на ее будущее. В стохастических процессах будущее не определяется единственным образом, однако у нас по крайней мере имеются ве- роятностные соотношения, позволяющие нам делать предсказания. Для изучавшихся в этой главе цепей Маркова ясно, что вероят- ностные соотношения, относящиеся к будущему, зависят лишь от состояния в настоящий момент, но не от того, каким образом это состояние возникло в прошлом. Иначе говоря, если две независимые системы с одинаковыми переходными вероятностями оказываются в одном и том же состоянии, то все вероятности, относящиеся к их будущей эволюции, совпадают. Это довольно неопределенное опи- сание формализуется следующим определением. Определение. Последовательность дискретных случайных вели- чин является марковским процессом, если для каждого конечного набора целых чисел пх<п2 <... <лг< п соответствующее сов- местное распределение (Х(п+ Х^, ..., Х^, Х(п)) определено таким образом, что условная вероятность соотношения Х(п} = х при ус- ловии Х(п^==х1, ..., Х(пг> = хг совпадает с условной вероятностью события Х{п}=х при единственном условии Х{Пг)=хг. Здесь хг, ..., хг суть произвольные числа, для которых упомянутые условия имеют положительные вероятности. Проще говоря, в определении сказано, что если дано настоящее состояние хг, то никакие дополнительные сведения относительно состояний системы в прошлом не могут изменить (условную) веро- ятность состояния х в некоторый будущий момент времени. Изучавшиеся до сих пор в этой главе цепи Маркова являются, очевидно, марковскими процессами, однако они обладают тем до- полнительным свойством, что для них переходные вероятности pjk = Р |х(/и+1) = k | Х{т} = j} не зависят от т. Более общие пере- ходные вероятности р(п-т) _ р |Х(„) = k | х^> = /}, т < п, (13.1) зависят только от разности п — т. Такие переходные вероятности называются стационарными (или однородными по времени). Для общей целочисленной цепи Маркова правая часть (13.1) зависит от m и п. Мы обозначим ее через pjh (т, п), так что Pjh (п, п+1) опреде- л) В оригинале hereditary processes.— Прим, перев,
§ 13. Общий марковский процесс 437' ляют вероятности перехода за один шаг. Для вероятности пути (/о, А, • • •> in) мы получаем теперь вместо (1.1) выражение п). (13.2) Соответствующим обобщением (3.3) будет, очевидно, тождество pJk(tn, ri)—^pjV(m, r)pvk(r, п), (13.3) V справедливое для всех г, таких, что т</<п. Это тождество следует непосредственно из определения марковского процесса, а также из (13.2); оно называется уравнением Колмогорова — Чэпмена. (Пере- ходные вероятности pjh (т, п) определены и для немарковских дис- кретных процессов, однако для них множитель pVb(i\ п) в (13.3) должен быть заменен выражением, зависящим не только от v и k, но и от /.) Изучавшиеся в этой главе цепи Маркова представляют общий однородный по времени дискретный марковский процесс. Мы не бу- дем останавливаться на неоднородных марковских процессах. Сле- дующие примеры могут быть полезными для понимания марковско- го свойства и проиллюстрируют ситуации, в которых уравнение Колмогорова — Чэпмена (13.3) не имеет места. Примеры немарковских процессов. а) Урновая схема Пойа (пример гл. V,2, в)). Пусть Х(п) равно 1 или 0 в зависимости от того, какой шар будет вынут при и-м извлечении—черный или красный. Последовательность {Х<п)} не- является марковским процессом. Например, Р {Х(3> = 11 Х(2) = 1} = (& + с)/0 + г + г), но р {х(3) - 1 I Х(2) = 1, Х(1> = 1} = (Ь + 2с)/(Ь + г + 2с) (см. задачи 19 и 20 гл. V). С другой стороны, если Y(n) — число черных шаров в урне в момент времени п, то {Y(n)} является обычной цепью Маркова с постоянными переходными вероятностями. б) Суммы высших порядков. Пусть Yo, Yx, ...—взаимно не- зависимые случайные величины, и пусть Yo + ... + Nп. Раз- ность S„—Szzz (при т < п) зависит лишь от Yzzz+1, ..., Y„, и по- этому легко видеть, что последовательность является мар- ковским процессом. Определим теперь новую последовательность случайных величин U„, полагая — So + Sj-I- . . . + Sn = Yn + 2Yn_1 + 3Y„_2 + . .. -j-(n—1)YO. Последовательность {U/2} образует стохастический процесс, веро- ятностные соотношения для которого могут быть в принципе вы- ражены через распределения величин Nk. Но этот процесс в общем случае уже не является марковским, поскольку нет никакой при- чины, по которой, например, Р |ии = 01 = а} должна была бы.
438 Гл. XV. Цепи Маркова равняться P{U„ = O | U„_1 = a, U„_2 = &}; зная U„_i и U„_2, можно сделать лучшие предсказания, чем зная одно лишь В случае непрерывного временного параметра суммирование здесь заменяется интегрированием. В теории диффузии Yn играют роль ускорений; тогда Sn — скорости, a Un — положения. Если могут быть измерены только положения, то мы вынуждены будем изучать немарковский процесс, хотя он и определяется косвенным образом через марковский процесс. в) Скользящие средние. Пусть снова {YJ — последовательность взаимно независимых случайных величин. Скользящие средние по- рядка г определяются как X(n) = (Yn+Yn+1+... + Y^.J/r. Легко видеть, что {Х(п)} не является марковским процессом. Про- цессы этого типа встречаются во многих приложениях (см. задачу 25). г) Задача об уличном движении. Чтобы получить эмпирический пример немарковского процесса, Р. Фюрт г) провел наблюдения над числом пешеходов на определенном участке улицы. Идеализирован- ная математическая модель этого процесса может быть получена следующим образом. Для простоты мы предположим, что все пеше- ходы имеют одну и ту же скорость ц, и рассмотрим только пешеходов, движущихся в одном направлении. Разобьем ось х на отрезки Ii, фиксированной длины d и будем регулярно наблюдать за рас- положением пешеходов в моменты, отстоящие друг от друга на div единиц времени. Определим случайную величину Nk как число пе- шеходов, находившихся первоначально в Ik. При п-м наблюдении эти пешеходы будут обнаружены в Ik_n1 тогда как интервал Ik бу- дет содержать Nk+n пешеходов. Стало быть, полное число пешеходов в интервале 0<Zx<ZNd будет тогда равно X(n) = Yn+1 + ... + Xn+Ar, и поэтому наш процесс является по существу процессом скользящего среднего. Простейшая модель для случайных величин Yfe пред- ставляется испытаниями Бернулли. В пределе при 0 они при- водят к непрерывной модели, в которой биномиальное распределе- ние заменяется распределением Пуассона. д) Суперпозиция марковских процессов (сложное тасование). Су- ществует много технических устройств (таких, как группы селекто- ров в телефонных коммутаторах, счетчики, фильтры), действие которых может быть описано как суперпозиция двух марковских процессов, результат которой уже не является марковским. Некото- рое представление о таких механизмах можно получить, изучая следующий метод тасования карт. Пусть помимо основной колоды из N карт у нас есть такая же вспомогательная колода, и эта вспомогательная колода тасуется обычным образом. Если карты в ней расположатся в порядке (а^ а2, . . ., aN), то мы переставим карты в основной колоде так, чтобы х) Fiirth R., Schwankungserscheinungen in der Physik, Sammlung Vieweg^ Braunschweig, 1920, 17ff. Результаты наблюдений появились в Physikalische -Zeitschrift, 19 (1918), 20 (1919).
§ 13. Общий марковский процесс 439 первая, вторая, . . ., N-я карта переместились на места с номерами alf а2, . . ., aN. Таким образом, тасование вспомогательной колоды косвенно определяет последовательные порядки карт в основной колоде. Эти последние образуют стохастический процесс немарков- ского типа. Для доказательства этого достаточно показать, что два последовательных порядка карт в основной колоде дают в общем случае больше информации о будущем, чем один последний порядок. Мы покажем это для простого частного случая. Пусть 7V=4; предположим, что вспомогательная колода нахо- дится вначале в порядке (2431). Предположим, кроме того, что операция тасования всегда представляет собой только «снимание», т. е. порядок (аъ а2, а3, а^) меняется на один из трех следующих: (а2, а3, а4, а^, (а3, а4, alf а2), (я4, аъ а2, а3)\ каждой из этих трех воз- можностей мы припишем вероятность 1/3. При этих соглашениях вспомогательная колода в любой момент времени будет иметь один из четырех порядков (2431), (4312), (3124), (1243). С другой стороны, уже непродолжительное экспериментирование покажет, что основ- ная колода постепенно пройдет через все 24 возможных порядка и что каждый из них будет появляться в комбинации с каждым из четырех возможных порядков вспомогательной колоды. Это озна- чает, что порядок (1234) основной колоды появится бесконечное чис- ло раз и что за ним всегда будет следовать один из четырех порядков (4132), (3421), (2314), (1243). Но вспомогательная колода не может оставаться в одном и том же порядке, и, следовательно, основная колода не может дважды подряд подвергнуться одной и той же пере- становке. Стало быть, если при испытаниях с номерами п — 1 и п имели место соответственно порядки карт (1234) и (1243), то в сле- дующем испытании порядок (1234) будет невозможен. Таким обра- зом, два последовательных наблюдения дают больше информации, чем одно-единственное. е) Не марковский процесс, удовлетворяющий уравнению Колмогорова—Чэп- мена. Тождество (3.3) было выведено из того предположения, что переход из Ev в Еь не зависит от того способа, каким было достигнуто состояние Ev. Поэтому сначала представлялось интуитивно ясным, что ни один немарков- ский процесс не должен удовлетворять этому тождеству; это предположение, казалось, подтверждалось тем фактом, что вероятности перехода за п шагов для такого процесса должны удовлетворять целому множеству любопытных тождеств. Тем не менее оказалось, что существуют исключения (хотя бы в теории). Действительно, в гл. IX, 1 мы встретились с бесконечной последо- вательностью попарно независимых одинаково распределенных случайных ве- личин, принимающих значения 1, 2 и 3 с вероятностью 1/3 каждое. Таким образом, мы имели процесс с возможными состояниями 1, 2, 3, такой, что pjk-=\/3 для всех комбинаций j и k. Стало быть, тождество (3.3) выполня- лось тривиальным образом при ру? =1/3. Тем не менее этот процесс не яв- ляется марковским. Чтобы убедиться в этом, предположим, что первый шаг приводит систему в состояние 2. Тогда переход в 3 на следующем шаге будет возможен тогда и только тогда, когда начальным состоянием было 1. Таким образом, переходы, следующие за первым шагом, зависят не только от на- стоящего, но и от начального состояния. (Модификации различного вида можно найти в замечании в гл. IX,1 и в примечании к нему.)
‘440 Гл. XV. Цепи Маркова § 14. ЗАДАЧИ 1. Рассмотрим последовательность испытаний Бернулли и скажем, что в момент времени п наблюдается состояние Elt если испытания с номерами п—1 и п привели к результату УУ. Аналогично Е2, Е3, Е^ означают исходы УН, НУ, НН. Найти матрицу Р и все ее степени. Обобщить схему. 2. Классифицировать состояния четырех цепей, матрицы Р которых имеют приведенные ниже строки. В каждом случае найти и асимптотическое (М) поведение pjk- а) (0, 1/2, 1/2), (1/2, 0, 1/2), (1/2, 1/2, 0); б) (0, 0, 0, 1), (0, 0, 0, 1), (1/2, 1/2, 0, 0), (0, 0, 1, 0); в) (1/2, 0, 1/2, 0, 0), (1/4, 1/2, 1/4, 0, 0), (1/2, 0, 1/2, 0, 0), (0, 0, 0, 1/2, 1/2), (0, 0, 0, 1/2, 1/2); г) (0, 1/2, 1/2, 0, 0, 0), (0, 0, 0, 1/3, 1/3, 1/3), (0, 0, 0, 1/3, 1/3, 1/3), (1, 0, 0, 0, 0, 0), (1, О, 0, 0, 0, 0), (1, 0, 0, 0, 0, 0). 3. Рассмотрим бросания правильной кости и условимся говорить, что в момен! п система находится в состоянии Ej, если / — наибольшее из чисел, выпавших в первых п бросаниях. Найти матрицу Рп и убедиться в том, что (3.3) выполняется. 4. В примере 2,к) найти вероятности (поглощения) х^ и того, что, выходя из Efe, система закончит эволюцию соответственно в Е{ или в Е5 (k — 2, 3, 4, 6). (Решить эту задачу, исходя из основных определений и не •обращаясь к § 8.) 5. Рассмотреть пример гл. I, 5,6) как цепь Маркова. Вычислить вероят- ность выигрыша для каждого игрока. 6. Пусть Ео—поглощающее состояние (т. е. р00==1). Пусть р// — р и pjj_1=zq при / > 0, где p-\-q—l. Найти вероятность того, что погло- щение в Ео произойдет в точности на п-м шаге. Найти также математическое ожидание этого распределения. 7. Первая строка матрицы Р равна у0, vlt ... . При / > 0 имеем (как и в предыдущей задаче) Pjf — P и Pjj-i — q. Найти распределение времени возвращения в Ео. 8. Пусть pj ^+2 = v/ и р/0 = 1— Vj при / = 0, 1, ... . Выяснить характер состояний. 9. Два отражающих экрана. Цепь с набором состояний 1,2,..., р имеет матрицу, первая и последняя строки которой суть (q, р, 0, ..., 0) и (0, ... ...,0, q, р). Во всех остальных строках pkf k + i = р, Pk, k-i—Q- Найти ста- ционарное распределение. Может ли эта цепь быть периодической? 10. Обобщить модель Бернулли—Лапласа для диффузии (пример 2,е)), предполагая, что имеются Ь^р черных и оу = 2р—b белых частиц. Число частиц в каждой урне остается равным р. 11. Цепь с набором состояний Ео, Elt ... имеет переходные вероятности v=l) где слагаемые с v > k следует считать равными нулю. Показать, что pfk — e~Klq (k/q)«/b\. Замечание. Эта цепь встречается в статистической механике1) и может быть интерпретирована следующим образом Состояние системы определяется числом Ц Chandrasekhar S. Stochastic problems in physics and astronomy, Rew. of Modern Physics, 15(1943), 1 — 89; p. 45. [Имеется перевод: Чандрасекар С. Стохастические процессы в физике и астрономии.— М.: ИЛ, 1947, с. 1—126, б частности с. 82.]
§ 14. Задачи 441 частиц в некоторой области пространства. В течение каждого единичного ин- тервала времени каждая частица может с вероятностью q покинуть эту об- ласть, причем все частицы стохастически независимы. Кроме того, в эту область- могут попадать новые частицы, и вероятность появления [за единицу вре- мени.— Перев.] г новых частиц дается выражением Пуассона e~^’kr/r\. Тогда стационарным распределением будет распределение Пуассона с параметром X/q. 12. Модель Эренфестов. Пусть в примере 2,д) в первом сосуде сначала было / молекул, и пусть XSn) = 2k— р, если на n-м шаге система находилась в состоянии k (так что Х(п) есть разность числа молекул в двух наших сосу- дах). Пусть е„ = Е(Х(п)). Доказать, что e„+i = (p — 2) е„/р, откуда еп = = (1—2lp)n (2j— р). (Заметим, что еп—>0 при п—>оо.) 13. Рассмотреть модель из задачи о счетчике (пример гл. XIII, 1, ж)) как цепь Маркова. 14. Случайное блуждание на плоскости с отражающими экранами. Рас- смотрим симметричное случайное блуждание в ограниченной области пло- скости. Ее граница является отражающей в том смысле, что каждый раз, когда при неограниченном случайном блуждании частица должна была бы покинуть эту область, она бывает вынуждена вернуться в предыдущее поло- жение. Показать, что если каждая точка области достижима из любой другой точки, то существует стационарное распределение, и что и^-Х/а, где а — число положений в области. (Если область не ограничена, то состояния яв- ляются возвратными нулевыми и uk=l определяет инвариантную меру.) 15. Повторное осреднение. Пусть {xlt х2, ...} — ограниченная последова- тельность чисел, и пусть Р—матрица эргодической цепи. Доказать, что* У Pn>xz—* 2 ujxj‘ Показать, что процедура повторного осреднения из при- мера гл. XIII, 10,в) является частным случаем этой задачи 16. В теории массового обслуживания встречается матрица переходных. вероятностей 'Ро Pi Р2 Рз •• • “ Ро Pi Рг Рз ••• 0 Ро Pi Рг ••• _0 0 Ро Pi •••_ где {pk} — некоторое распределение вероятностей. Используя производящие’ функции, выяснить характер состояний. Найти производящую функцию ста- ционарного распределения, если оно существует. 17. Время ожидания поглощения. Пусть Yy—момент времени, когда вы- ходящая из невозвратного состояния Ej система впервые попадает в возврат- ное состояние. Предполагая, что вероятность остаться навсегда в множестве невозвратных состояний равна нулю, доказать, что dj — E(Yy) однозначно’ определяется как решение системы линейных уравнений d/=X/’/A+!- Т где суммирование проводится по всем v, таким, что Ev невозвратно. Однако- dv не обязательно конечны. 18. Если число состояний а < оо и если достижимо из Ej, то оно» достижимо не более чем за а—1 шагов (/ k). 19. Пусть цепь содержит а состояний, и пусть Ej — возвратное состояние. Существует число <? < 1, такое, что при п^а вероятность того, что время возвращения в Ej превосходит и, меньше чем qn. (Указание. Использовать- результат задачи 18.) 20. В конечной цепи состояние Ej невозвратно тогда и только тогда, когда существует Ek, такое, что Ek достижимо из Ej, a Ej недостижимо из- Ek. (Для бесконечных цепей это неверно, как показывают случайные блуж- дания.)
442 Гл, XV. Цепи Маркова 21. Неприводимая цепь, для которой положителен хотя бы один диаго- нальный элемент pjj, не может быть периодической. 22. Конечная неприводимая цепь непериодична тогда и только тогда, когда существует п, такое, что р{$ > 0 при всех / и k. 23. Пусть а состояний (хь хй), некоторой цепи дают решение си- стемы линейных уравнений х^ — ^р .уху. Доказать, что а) если при всех то состояния, для которых хг=1, образуют замкнутое множество; б) если Еу и Е/j принадлежат одному неприводимому множеству, то Xj = x& в) в неприводимой цепи решение {ху} сводится к константе. Указание. Рас- смотреть сужение этих уравнений на замкнутом множестве. 24. Продолжение. Если (х1} ..., ха) есть (комплекснозначное) решение системы ху = s2^/vxv ПРИ Is 1—1 и $ 7= 1, то существует целое число t > 1, такое, что s*=l. Если цепь неприводима, то наименьшее такое целое число является периодом цепи. Указание. Предположить без потери общности, что х± = 1 | xv |. Рас- смотреть последовательно состояния, которые достигаются за 1, 2, ... шагов. 25. Скользящие средние. Пусть {Y^} — последовательность взаимно незави- симых случайных величин, каждая из которых принимает значения ±1 с ве- роятностями 1/2, и пусть X(n) = (Yw-f-Y„ + 1)/2. Найти переходные вероятности pyft(m, п) = Р = = где "г < п и /, k = — 1, 0, 1. Вывести отсюда, что {Х(п)} не является марков- ским процессом и что (13.3) не выполняется. 26. Рассмотрим последовательность испытаний Бернулли и скажем, что в момент времени п наблюдается состояние Еь если испытания с номерами п—1 и п привели к успеху; в противном случае система находится в состоя- нии Е2. Найти вероятности перехода за п шагов и установить немарковский характер этого процесса. Замечание. Этот процесс получается из цепи задачи 1 при объединении трех состояний в одно. Такая группировка применима к любой цепи Маркова и нарушает марковское свойство. Процессы такого типа изучал Харрис1). 27. Смесь цепей Маркова. Пусть заданы две цепи Маркова с одним и тем же числом состояний и матрицами Рх и Р2. Новый процесс определяется неко- торым начальным распределением и матрицей вероятностей перехода за п шагов (1/2) Р7-}-(1/2) Рг. Установить немарковский характер этого процесса и его связь с урновыми моделями гл. V, 2. 28. Пусть N — случайная величина, имеющая распределение Пуассона со средним %. Рассмотрим N независимых марковских процессов, начинающихся из Ео и имеющих одну и ту же матрицу Р. Обозначим через число этих процессов, находящихся после п шагов в состоянии Е&. Показать, что Z^ имеет распределение Пуассона со средним Крор. Указание. Использовать результат примера гл. XII, 1, б). 29. Используя результат предыдущей задачи, показать, что случайная величина из примера 11,6) имеет распределение Пуассона со средним 2 UjPjk = i х) Harris Т. Е., On chains of infinite order, Pacific Journal of Mathema- tics, 5 (1955), Supplement 1, 707—724.
ГЛАВА XVI*) АЛГЕБРАИЧЕСКАЯ ТРАКТОВКА КОНЕЧНЫХ ЦЕПЕЙ МАРКОВА В этой главе мы рассматриваем цепь Маркова с конечным чис- лом состояний Ер и заданной матрицей переходных веро- ятностей pJk. Наша главная цель состоит в выводе явных формул для вероятностей перехода за п шагов. Нам не потребуются результаты предыдущей главы, за исключением общих понятий и обозначений из § 3. Мы воспользуемся методом производящих функций и получим желаемые результаты при помощи разложения на простые дро- би, описанного в гл. XI, 4. Наши результаты можно также получить непосредственно из теории приведения матриц к каноническому виду (которая, в свою очередь, может быть выведена из наших результа- тов). Кроме того, для конечных цепей из результатов настоящей гла- вы следуют эргодические свойства, доказанные в гл. XV. Однако для простоты мы несколько ограничим общность и будем игнорировать исключительные случаи, которые усложняют общую теорию и едва ли встречаются в практических примерах. Общий метод намечен в основных чертах в § 1 и иллюстрируется в § 2 и 3. В § 4 особое внимание уделяется невозвратным состояниям и вероятностям поглощения. В § 5 наша теория применяется для нахождения дисперсий времен возвращения в состояния Ej. § 1. ОБЩАЯ ТЕОРИЯ] Введем для фиксированных j и k производящую функцию1) од) п = 0 Умножая на и суммируя по / = 1, р, получаем р PijPjAs^P^-p^. (1.2) /= 1 *) Эта глава посвящена специальному вопросу и может быть опущена. [По- дробное изложение близких вопросов можно найти в книге Романовский В. И. Дискретные цепи Маркова.— М.— Л.: Гостехиздат, 1949.— Перев.] х) Напомним, что pf/? равняется 0 при j ф k и 1 при j = k, (Такие известны под названием символов Кронекера.)
444 Гл. XVI. Алгебраическая трактовка конечных цепей Маркова Это означает, что при фиксированных k и s величины Zj = Pjk(s) удовлетворяют системе линейных уравнений вида р (1.3) Решения Zj системы (1.3), очевидно, являются рациональными функциями от s с общим знаменателем D ($)—детерминантом этой системы. Для согласования со стандартными обозначениями из линейной алгебры положим s = t"1. Тогда tpD (/-1) есть многочлен степени р (называемый характеристическим многочленом матрицы Р переходных вероятностей p/k). Его корни ..., tp называются характеристическими числами (или собственными значениями) матрицы Р. Введем теперь упрощающие предположения о том, что харак- теристические числа просты (отличны друг от друга) и отличны от нуля1). Это представляет некоторое ограничение общности, однако наша теория будет все же охватывать большинство пред- ставляющих интерес случаев. Как уже говорилось, для фиксированных k и р величины PJk (s) суть рациональные функции от s с общим знаменателем D ($). Корни многочлена D ($) равны обратным величинам не обращающихся в нуль характеристических чисел tv. Поэтому из результатов гл. Х1,4 следует, что существуют постоянные такие, что2) P/ft(s) = ^7(l-^)+ • • • +ОД/(1-^Р). (1.4) Разлагая дроби в геометрические ряды, мы получаем эквивалент- ные соотношения = (1.5) справедливые для всех целых п^О. Покажем теперь, что коэф- фициенты Ь/Р однозначно определяются как решения некоторых систем линейных уравнений. Величину р^+1) можно получить, за- меняя в (1.5)3) п на п + 1, но ее можно получить также, умно- жая (1.5) на р^ и суммируя по / = 1, ..., р. Приравнивая эти два выражения, мы получаем тождество вида ^^+...+^ = 0, (1.6) х) Условие tr тА 0 вскоре будет отброшено. В примере 4, б) проводится численный анализ цепи с кратными корнями. 2) Теоретически мы должны были бы опустить те корни tr, которые совпадают с корнями числителя. Однако для таких корней мы положим и поэтому (1.4) и (1.5) остаются верными при любых обстоятельствах, ^) При j = i,— Прим. nepeet
§ 1. Общая теория 445 справедливое для всех п. Это, очевидно, невозможно, если все коэффициенты не обращаются в нуль, и мы заключаем, что Ър^-Ш (1-7) /=1 для всех комбинаций г, k и v. Умножая (1.5) на ркг и суммируя по k, аналогичным образом получаем р 0-8) k= 1 Рассмотрим (рхр)-матрицу b(V) с элементами Ь$. В силу соот- ношений1) (1.7) ее k-й столбец представляет решение системы р линейных уравнений р 'SiPi/Xj— txi = Q О-9) 7= 1 при t==tv\ аналогично в силу (1.8) ее /-я строка удовлетворяет системе р % УкРы—tyr = Q (1Л0) /г=1 при t = tv. Система (1.10) получается из (1.9), когда строки и столбцы меняются местами, и поэтому детерминанты этих систем одинаковы. Детерминант системы (1.9) обращается в нуль только тогда, когда t совпадает с одним из характеристических значений ..., /р. Иначе говоря, системы (1.9) и (1.10) допускают не- тривиальные решения тогда и только тогда, когда t = tv для не- которого v. Обозначим тару соответствующих решений через (xjv), ...» %pv)) и (y\v\ ..., r/(pv))* Они определены с точностью до постоянного множителя, так что Ь^=с^х^у^9 (1.11) где c(v) — постоянная (не зависящая от / и &). Чтобы найти эту неизвестную постоянную, заметим, что из (1.9) по индукции выте- кает, что р / = 1 при всех п. Воспользуемся этим соотношением при / = где % — произвольное целое число, лежащее между 1 и р. Подставляя х) Системы (1.7) и (1.8) можно записать в компактной векторно-матрич- ной форме Pb(v) = и *(V>P=//V>.
446 Гл. XVI. Алгебраическая трактова конечных цепей Маркова вместо р)"’ выражения (1.5), находим, что р р = tlc^ х? 2 ^1,4Л> + • • • + ^хГ 2 . (1.13) /г=1 k=\ Это тождество вида (1.6), которое может выполняться лишь тогда, когда все коэффициенты обращаются в нуль. Приравнивая коэф- фициенты при в обеих частях, получаем окончательно1) р сЛ> 24МХ) = 1. (1.14) k=l Это соотношение определяет коэффициент в (1.11). Правда, х)Л) и определяются только с точностью до постоянного мно- жителя, но замена х^ на Ах^ и у(^} на Ву^ меняет с(Л) на са)/(АВ), и коэффициент Ь$ остается неизменным. Резюмируем этот результат следующим образом. Системы ли- нейных уравнений (1.9) и (1.10) допускают нетривиальные решения не более чем для р различных значений t (одних и тех же для обеих систем). Предположим, что существует ровно р таких зна- чений tr, ..., tp и что все они отличны от 0. Выберем для каж- дого tK ненулевое решение (я*/0, ..., х£Л)) системы (1.9) и ненуле- вое решение (у^\ ..., у{р}) системы (1.10). Тогда при са\ опре- деляемых в (1.14), имеем для п = 0, 1, ... Р/Т = 2 c^x^y^tl. (1.15) 1 Таким образом, мы нашли явное выражение для всех переходных вероятностей 2). Предположение о том, что все характеристические числа раз- личны, удовлетворяется в большинстве практических случаев, за ис- ключением случая разложимых цепей, который требует лишь неболь- ших изменений в рассуждениях (см. § 4). Однако нередко одним из характеристических чисел оказывается нуль. Положим в этом случае /р = 0. Новизна состоит здесь в том, что детерминант D (s) х) Обращение в нуль остальных коэффициентов влечет равенство 2 ^4V) = 0 при X # v. k=i 2) В векторно-матричной форме окончательная формула (1.15) становится более изящной. Пусть Х^у— вектор-столбец (или (рХ 1)-матрица) с элементами a Y(K)—вектор-строка (или (1 Хр)-матрица) с элементами . Тогда (1.15) принимает вид Р = 2 c^X^Y^tt А,= 1 а с(А,) определяется скалярным уравнением с(Л)у(^')х(А')= 1,
§ 2. Примеры 447 системы (1.3) имеет только р—1 корней t^1, ..., tp-i, и поэтому производящая функция PJk (s) является отношением двух много- членов степени р—1. Для разложения на простейшие дроби тре- буется, чтобы степень числителя была меньше степени знаменателя, и, чтобы добиться этого, мы должны сперва вычесть из PJk (s) подходящую постоянную. Таким образом мы получим для PJk (s) разложение на простые дроби, отличающееся от (1.4) тем, что последний член в нем заменяется постоянной. Из (1.15) ясно, что такая замена влияет на правую часть этого равенства лишь при п = 0. Иначе говоря, явное представление (1.15) для р$ остается справедливым при п"^ 1, даже если tp = 0 (при условии, что корни •••, ^p-i различны и отличны от нуля). Левая часть (1.15) может оставаться ограниченной при всех п только тогда, когда | 1 для всех X. При t = 1 уравнения (1.9) имеют решение Xj = 1, так что одно характеристическое число равно 1. Не ограничивая общности, мы можем положить tt = 1. Если цепь непериодична, то для всех других характеристических чисел мы имеем |6J< 1, и из (1.15) видно, что при п—> оо рГ^с^у^. (1.16) Иначе говоря, инвариантное распределение вероятностей можно характеризовать как решение системы (1.10) при t = \. 2. ПРИМЕРЫ а) Рассмотрим сначала цепь, имеющую только два состояния. Матрица переходных вероятностей принимает простой вид р = /1— р р \ \ а 1—а/ ’ где 0 < р < 1 и 0 < а < 1. Вычисления здесь тривиальны, по- скольку рассматриваются лишь системы из двух уравнений. Харак- теристические числа суть /х = 1 и t2 = \—а—р. Явное представ- ление (1.15) для р($ можно записать в матричной форме- 1 (<* Р\ , (1—<х—р)”/ Р —Р\ «+р \а р) ' \—а а/ (где множители, общие для всех четырех элементов матриц, выне- сены как коэффициенты при матрицах). Эта формула справедлива для п^О. б) Пусть
448 Гл. XVI. Алгебраическая трактовка конечных цепей Маркова (это матрица из задачи 2, б гл. XV, 14). Система (1.9) сводится к x^ = tx19 x4 = tx2, (1/2) (%j + х2) = tx3, x3 = tx4. (2.2) Значению t = 0 здесь соответствует решение (1,—1,0,0), однако мы видели, что для явного представления р^у при п 1 корень 0 не требуется. Стандартная процедура последовательного исключе- ния переменных показывает, что остальные корни удовлетворяют кубическому уравнению /3 = 1. Если для сокращения записи по- ложить Q = С2л1/з = cos (2л/3) + i sin (2л/3) (2.3) (где i2 =—1), то этими тремя корнями будут tr = 1, /2 = 0 и /3 = 02 (или, что то же самое, /3 = 0”1). Теперь мы должны решить при этих значениях t системы (1.9) и (1.10). Поскольку постоянный множитель остается произвольным, мы можем положить х^—у(^— 1. Тогда решения в окончательном явном представлении будут сов- падать соответственно с первыми столбцами и первыми строками трех матриц: '1 12 2” '1 1 29 202~ ГУ 1 112 2 1 1 20 202 р« = — 6 112 2 +-6 02 02 2 20 + _1 1 2 2_ 0 202 2 _ ’1 1 202 20 " , 02п 1 1 202 20 +- ф ф ьо ьо ф ьэ (2-4) _02 02- 20 2 _ Поскольку мы отбросили корень /=0, эта формула справедлива толь- ко при п^Л. Из (2.4) очевидно, что наша цепь имеет период 3. Чтобы найти асимптотическое поведение Рп, заметим, что 1+0+02=О. Исполь- зуя этот факт, легко проверить, что при п ->-оо по числам вида п= — 3k строки матрицы Рп будут стремиться к (1/2, 1/2, 0, 0). Для п= = 3^+1 и п=3&+2 соответствующие пределы суть (0, 0, 0, 1) и (0, 0, 1, 0). Отсюда следует, что инвариантное распределение вероят- ностей дается вектором (1/6, 1/6, 1/3, 1/3). в) Пусть p+q=l и ”0 q о -р Р 0 0 р q 0 0 q 0 Р 0_ (2-5) Эта цепь представляет собой частный случай цепи из следующего примера, но из-за своей простоты рассматривается отдельно. Легко
§ 2. Примеры 449 видеть, что система (1.9) сводится к двум линейным уравнениям для двух неизвестных хх4-х3 и х2+х4, и, следовательно, четыре характе- ристических числа здесь суть 6 = 1, /2=—1, /з=Ц?—р), /4=—*(<?—Р). (2.6) Соответствующими решениями будут (1, 1, 1, 1), (—1, 1, —1, 1), (—f, —1, /, 1) и (г, —1, —1). (Заметим, что они имеют вид (9, 92, 03, 94), где 9 — корень четвертой степени из единицы.) Система (1.10) отличается от (1.9) лишь тем, что р и q в ней меняются места- ми, и поэтому без дальнейших вычислений мы получаем = (1/4) (1 + (<7—Р)” U~k~n\ {1 (2.7) г) В общем циклическом случайном блуждании из примера гл. XV, 2, г) первая строка матрицы Р имеет вид ..., 7Р_Х, а остальные строки получаются из нее циклическими перестанов- ками. В предыдущем примере было показано, что в частном слу- чае р = 4 x<-V) и у№ могут быть представлены как степени кор- ней четвертой степени из единицы. Поэтому естественно попытаться найти здесь аналогичное представление через корни р-й степени из единицы, а именно через величины 9 = е2^/р. (2.8) Все корни р-й степени из единицы суть 1, 9, 92, 9Р-1. Поло- жим для г = 0, р — 1 р-i (2.9) v=0 Легко проверить, что при t = tr системы (1.9) и (1.10) имеют ре- шения 4> = 9Г, ^г)=9-г/г (2.10) и что для соответствующих коэффициентов с{г} мы во всех случаях имеем с(г) = 1/р. Таким образом, окончательно* 1) р-1 2 (2.11) г = 0 г) При /1 = 0 правая часть (2.11) определена только тогда, когда ни одно из tr не обращается в нуль. В действительности мы доказали (2.11) для 1, предполагая, что все корни tr различны, а это отнюдь не всегда верно в настоящей ситуации. Например, если <7^ = р”1 ПРИ всех то /о = 1, а Ц — ... = / =0. Но даже в этом крайнем случае (2.11) остается справед- ливым при всех /, k и п^1. к счастью, (2.11) нетрудно проверить непо- средственной индукцией по п, В частности, для п=1 множитель при qv 15 № 221’
450 Гл. XVI. Алгебраическая трактовка конечных цепей Маркова д) Задача о размещении. Пример гл. XV, 2, ж) показывает, что классическая задача о размещении может изучаться методом цепей Маркова. Система находится в состоянии j, если имеется / занятых и р — / пустых ящиков. Если это состояние является на- чальным и по ящикам случайным образом размещается еще п дополнительных шаров, то р{$ есть вероятность того, что после этого будет k занятых и р—k пустых ящиков (так что /7^ = 0 при k < /). Для / = 0 эта вероятность получается по формуле (11.7) гл. II. Теперь мы выведем формулу для р($, обобщив таким обра- зом результаты гл. II. Поскольку pjj = jlp и p/i7+1 = (p— /)/р, система (1.9) сво- дится к (pZ — /)х7 = (р— /) x/+i. (2.12) При t = l отсюда вытекает, что лу = 1 для всех /. Когда /#=1, то с необходимостью хр = 0, и поэтому существует такой индекс г, что хг+1 = 0, но хг=7^0; из (2.12) следует, что pt = r. Стало быть, характеристические числа здесь суть tr = г/р, г = 1, ..р. (2.13) Соответствующие решения (2.12) даются формулой (2J4) так что х)Г) = 0 при j>r. Для t = tr система (1.10) сводится к (Г-j)z/<r) = (p_/ + 1)^21 (2.15) и имеет решение У(/) = (рг)(-1)/"г. (2-16) где, конечно же, ^г) = 0 при j<r. Поскольку х-г) = 0 при j>r и у‘/’ = 0 при / < г, мы имеем 1/с^> = %</’#> = (Р), и, следовательно, k _ <2Л7> в (2.11) сводится к р-1 р-i 2 г =0 Сумма здесь равна нулю, за исключением случаев / — fe-]-v = 0 и /—£-]-v = p, а в этих случаях каждое слагаемое равно единице. Следовательно, p/V сво- дится к если и к > если k < а это и есть заданная мат- рица (руА),
g 3. Случайное блуждание с отражающими экранами 451 Если выразить биномиальные коэффициенты через факториалы, то эта формула упростится: и Р$)==0 при /. (Численную иллюстрацию см. в примере 4, б).) § 3. СЛУЧАЙНОЕ БЛУЖДАНИЕ С ОТРАЖАЮЩИМИ ЭКРАНАМИ Теперь применение цепей Маркова будет продемонстрировано на примере полного обсуждения случайного блуждания с состоя- ниями 1, 2, р и двумя отражающими экранами1). Матрица Р для него приведена в примере гл. XV, 2, в). Для 2^&^р—1 имеем pk, k+1 = p и pk k_1 = q; первая и последняя строки суть (q, р, 0, ..., 0), (0, 0, q, р). Для удобства сравнения с выводами гл. XIV мы теперь отка- жемся от переменной Z = s"1 и запишем характеристические числа в виде s^1 (вместо /г); будет удобно пронумеровать их от 0 до р—1. Для переменной s линейная система (1.9) запишется в виде = s (^ + рх2), x/. = s(7x/_, + /?x/+1), / = 2, 3, р—1, (3.1) Xp = s(7x(-,_, + /?xp). Эта система допускает решение х,- = 1, соответствующее корню s=l. Чтобы найти все остальные решения, применим метод част- ных решений (которым мы уже пользовались для решения анало- гичных уравнений в гл. XIV, 4). Среднее уравнение в (3.1) удов- летворяется при = если X—корень квадратного уравнения h = qs + №ps. Два корня этого уравнения суть ,i(s)=,+h^w, (3.2) и поэтому общим решением среднего из уравнений (3.1) является xz = X(s)Z./(s) + B(S)Z/(S), (3.3) где X(s) и B(s) произвольны. Первое и последнее из уравнений (3.1) будут иметь решение (3.3) тогда и только тогда, когда x0 = Xj и хр = хр+1. Для этого требуется, чтобы A (s) и В (s) удов- 2) Часть последующего изложения является повторением теории из гл. XIV. Там приведенное в тексте квадратное уравнение встречается под номером (4.7); выражения (3.2) для М (s) и Х2 (s) даются в (4.8), а общее ре- шение (3.3) появляется в виде (4.9). Два эти метода связаны друг с другом, однако во многих случаях детали вычислений оказываются совершенно раз- личными. 15*
452 Гл. XVI. Алгебраическая трактовка конечных цепей Маркова летворяли условиям A (s) {1 (s)} + В (s) {1 -Ь2 (s)} = О, A (s) %? (s) {1 (s)} + В (s) Хр (s) {1 -Х2 (s)} = 0. И обратно, если эти два уравнения справедливы для некоторого значения s, то (3.3) представляет собой решение линейной системы (3.1), и это решение тождественно обращается в нуль только тогда, когда Xi(s) = X2(s). Стало быть, наша задача состоит в том, чтобы найти те значения s, для которых %? ($) = ^2 (s), но (s) Х2 (s). (3.5) Поскольку (s) Х2 (s) — qlp, то из первого соотношения вытекает, что (s) plq должно быть корнем (2р)-й степени из единицы, т. е. мы должны иметь Zi (s) = У q/p eislr/p, (3.6) где г—целое число, 0^г<2р. Из определения (3.2) легко ви- деть, что (3.6) имеет место только при s = sr, где S71 = 2 К pq cos nr Ip. (3.7) Для значения s — sp второе условие (3.5) нарушается; более того, sr = s2P_r, и поэтому р различных характеристических чисел даются формулой (3.7) при г = 0, 1, ..., р—1. Решая (3.4) при s = sr и подставляя результат в (3.3), мы получаем хр = (9/p)//^sin (лг//р) —(?/р)(/+1)/2 sin[nr (/ —1)/р] (3.8) для г=1, р — 1, тогда как для г = 0 4°> = 1. (3.9) Сопряженная система (1.10) сводится к yt = sq fa + yj, Ук = $(РУк-1+дУь+1), k = 2, ...» р—1, (3.10) f/p = Sp G/p-1 + Ур)- Среднее уравнение здесь такое же, как в (3.1), нос переставлен- ными р и q, и поэтому его общее решение получается из (3.3) с переставленными р и q. Первое и последнее уравнения могут быть удовлетворены, если s = sr, и простые вычисления показывают, что для г=1, 2, ..., р—1 решением (3.10) является tfi? = (plqY12 sin (зтгА/р) — (p/<7)(fe"1)/2sin[пг (k— 1)/р]. (3.11) Для s0 = 1 мы аналогично получаем № = (3.12)
§ 4. Невозвратные состояния; вероятности поглощения 453 Остается найти коэффициенты с(г), определяемые соотноше- ниями р-i 2w=i. (3.13) 6=0 При г = 0 й-й член этой суммы равняется (p!q)k, и поэтому ^(0) = (<7/р) • [(Р/7) — 1]/[(P/7)P — 1], (3.14) за исключением случая p = q, когда с0 = 1/р. При г^1 элемен- тарные, хотя и трудоемкие, вычисления1) приводят к выражению с{г} = (2р/р) {1 —2 J/"pqtos (лг/р)}’1. (3.15) Поэтому общее представление (1.15) для переходных вероятностей высших порядков приводит к окончательному результату2) „(П)_ (Р/?) —1 (РУ'1 , Х/Г) yk} [2 y~pq cos (лг/р)]" /О Pjk ”(P/^~1 W 1>2 61cosMp) ’ (d'lb) где xp и y(kr) определены формулами (3.8) и (3.11). При p = q первый член в правой части следует считать равным 1/р. § 4. НЕВОЗВРАТНЫЕ СОСТОЯНИЯ; ВЕРОЯТНОСТИ ПОГЛОЩЕНИЯ Теорема § 1 была выведена в предположении, что корни fa . различны. Наличие кратных корней не требует существен- ных изменений, однако мы обсудим лишь особо важный частный слу- чай. Корень /1=1 является кратным, когда цепь содержит две или несколько замкнутых подцепей; эта ситуация часто встречается в задачах, связанных с вероятностями поглощения. Легко приспосо- бить метод § 1 к этому случаю. Для краткости и ясности мы объяс- ним эту процедуру на примерах, в которых обнаружатся главные черты общего случая. х) Эти вычисления значительно упростятся, если воспользоваться комп- лексной записью и тождеством sin v = [eiv—e~iv]l(2i). Сумма в (3.13) сво- дится к линейной комбинации (с комплексными коэффициентами) сумм вида р-1 где т = 0 или /п=±1. В первом случае эта сумма равна р, во втором—ну- лю, откуда (3.15) следует тривиальным образом. 2) Аналогичные формулы в случае одного отражающего и одного погло- щающего экрана см. в статье Каца (Кас М., Random walk and the theory of Brownian motion, Amer. Math. Monthly, 54 (1947), 369—391). Определение отражающего экрана модифицировано там таким образом, чТо частица может достичь 0; когда это происходит, следующий шаг переводит ее в 1. Явные формулы оказываются в этом случае более сложными. Статья Каца содержит также формулы для р™ в модели Эренфестов (пример гл. XV, 2, д)).
454 Гл. XVI. Алгебраическая трактовка конечных цепей Маркова Примеры, а) Рассмотрим матрицу переходных вероятностей Г "1/3 2/3 0 0 0 0 * 1 2/3 1/3 0 0 0 0 0 0 1/4 3/4 0 0 р = 0 0 1/5 4/5 0 0 (4-1) 1/4 0 1/4 0 1/4 1/4 i 1/6 1/6 1/6 1/6 1/6 1/6 Ясно, что Ef и Е2 образуют замкнутое множество (т. е. из них не- возможен переход ни в одно из остальных четырех состояний; ср. гл. XV, 4). Аналогично Е3 и Р4 образуют другое замкнутое множест- во. Наконец, Еъ и Евсуть невозвратные состояния. После конечного числа шагов система перейдет в одно из двух замкнутых множеств и останется там навсегда. .Матрица Р имеет вид блочной матрицы ГЛ О и Р = О О" в о V Т (4.2) где каждая буква обозначает (2х2)-матрицу, а каждый нуль — матрицу из четырех нулей. Например, А имеет строки (1/3, 2/3) и (2/3, 1/3); это матрица переходных вероятностей, соответству- ющая цепи, образованной двумя состояниями Et и Е2. Эту мат- рицу можно изучать отдельно, а степени Ап могут быть получены из примера 2, а) при р = а = 2/3. Когда степени Р2, Р3, ... будут вычислены, окажется, что на первые две строки остальные четыре никак не влияют. Точнее, Рп имеет вид Р“ = Ап О О В” Vn О о 'рп (4-3) где А”, Вп, Тп суть n-е степени Л, В и Т соответственно и могут быть вычислены1) методом § 1 (ср. пример 2, а), где выполнены все вычисления). Вместо шести уравнений с шестью неизвестными перед нами теперь только системы из двух уравнений с двумя не- известными каждая. Следует отметить, что матрицы V п и Улв (4.3) не являются степенями U и V и не могут быть получены тем же простым спо- собом, что и Лп, Вп и Тп. Однако при вычислении Р2, Р3, ... х) Суммы по строкам в Т не равны единице, так что Т не является сто- хастической матрицей (это субстохастическая матрица в смысле определения гл. XV, 8). Метод § 1 применим без изменений, за исключением того, что; 7=1 не является более корнем (так что Тп—>0).
$ 4. Невозвратные состояния; вероятности поглощения 455 третий и четвертый столбцы никак не влияют на остальные четыре столбца. Иначе говоря, вычеркнув в Рп соответствующие £3 и£4 строки и столбцы, мы получим матрицу Ап Un (4-4) которая является n-й степенью соответствующей подматрицы мат- рицы Р, т. е. матрицы -1/3 2/3 0 0 - /Л 0\ 2/3 1/3 0 0 1/4 0 1/4 1/4 • (4.5) 1/6 1/6 1/6 1/6 Стало быть, матрица (4.4) может быть вычислена методом § 1, который в настоящем случае значительно упрощается. Матрица может быть получена аналогичным образом. Обычно явный вид матриц Uп и Vп интересен лишь постольку, поскольку они связаны с вероятностями поглощения. Если систе- ма выходит, скажем, из Еъ, то какова будет вероятность X того, что она в конце концов попадет в замкнутое множество, обра- зованное состояниями Et и Е2 (а не в другое замкнутое множе- ство)? Чему равна вероятность Кп того, что это произойдет в точности на п-м шаге? Ясно, что pff + piT есть вероятность того, что рассматриваемое событие произойдет не позже чем на п-м шаге, т. е. p^ + p(5T = ^+4+...+^. Устремляя п к оо, получаем X. Предпочтительный способ вычис- ления Х„ состоит в следующем. На (п—1)-мшаге система должна попасть в состояние, отличное от Ei и Е2, т. е. либо в Еъ, либо в Е6 (поскольку из Е3 или из £4 переход в Et или Е2 невозмо- жен). Затем п-й шаг переводит систему в Et или в Е2. Следова- тельно, К = рГ11 (рн+р52)+(р„+р62) = (1/4) +(1/3) Рй-1’. Отметим, что л„ вполне определяется элементами Тп~1, а эту матрицу легко вычислить. В настоящем случае Р™ = Р™ = (1/4) (5/12)"-1, и, следовательно, 7.п = (7/48) (5/12)"-2. б) Братско-сестринское скрещивание. Мы завершим этот па- раграф численным анализом цепи из примера гл. XV, 2, к). Суть последующих рассуждений состоит в том, чтобы показать, что ка- ноническое представление P$=S^lr’W' (4-6)
456 Гл» XVI, Алгебраическая трактовка конечных цепей Маркова остается справедливым, хотя t = 1 является двойным корнем ха- рактеристического уравнения. Система (1.9) линейных уравнений принимает вид Xi = txi9 (1/4) xt + (1/2) х2 + (1/4) х3 = /х2, (1/16) х, + (1/4) х2 + (1/4) х3 + (1/4) х4 + (1/16) х5 + (1/8) х6 = tx3, (l/4)x3 + (l/2)x4 + (l/4)x5==tx4, x5 = tx5, x3 = tx6, (4.7) и эти уравнения выявляют форму заданной матрицы. Из первого и пятого уравнений ясно, что xi=x5=0, если не выполнено /=1. Стало быть, при £/=1 система на самом деле сводится к четырем урав- нениям с четырьмя неизвестными, и стандартная процедура исклю- чения переменных приводит к уравнению четвертой степени для I в качестве условия совместности этих четырех уравнений. Посколь- ку всего у нашей матрицы шесть собственных значений, отсюда сле- дует, что Z=1 является двойным корнем. Нетрудно проверить, что* эти шесть собственных значений суть х) /8 = 1/2, /4 = 1/4, /Б = 1/4 + /5/4, /в = 1/4—/5/4. (4.8) Соответствующие решения (х'/’, х^’) системы (4.7) могут быть выбраны следующим образом: (1, 3/4, 1/2, 1/4, 0, 1/2), (0, 1/4, 1/2, 3/4, 1,1/2), (0, 1, 0, —1, 0, 0), (0, 1, —1, 1, 0, —4), (0, 1, —1+/5-, 1, 0, 6—2/5), (0, 1, — 1 — /5, 1, 0, 64-2/5). (4.9) Следующая задача состоит в нахождении соответствующих ре- шений (r/(jr), ...» r/(er)) системы, получаемой из (4.7) при переста- новке местами строк и столбцов [в матрице коэффициентов.— Пе- рев.] Для г^З это решение определено с точностью до постоян- ного множителя, однако для двойного корня t4 == t2 = 1 мы должны выбирать среди бесконечного числа решений вида (а, 0, 0, 0, &, 0). Подходящий выбор становится очевидным из вида искомого пред- ставления (4.6). В самом деле, из (4.9) ясно, что Xir)=0, за исключением случая r = 1, и поэтому из (4.6) имеем р{&~сщу$у для всех k и п. Но Et является поглощающим состоянием, и, очевидно, р(& = ® при всех k=£=l. Отсюда следует, что для г=1 мы должны выбрать решение вида (а, 0, 0, 0, 0, 0), и по той же причине соответствующим г = 2 решением будет (0,0, 0, 0, &, 0). Решения, соответствующие остальным характеристическим чис- лам, находятся легко. (Те из них, которые были выбраны для наших вычислений, представляются вторыми строками приводимых ниже матриц.) Затем из (1.14) определяются нормирующие постоянные х) Корень t3—1/2 легко обнаружить, поскольку он соответствует про- стому решению х2—— х4=1 и Xi = х3 = х5 = хв = 0. Для остальных корней по- лучается несложное кубическое уравнение,
§ 5, Приложение к временам возвращения 457 и таким образом мы получаем все величины, входящие в пред- ставление (4.6) Для записи окончательного результата матрицы, соответствую- щие г = 1 и г = 2, были объединены в одну. Более того, соответ- ствующие г = 5 и г = 6 элементы с{г}хрур имеют вид а ± b |/*5. По техническим причинам и для ясности было необходимо пере- и представить его вклад в виде Р”= 2 1 1. 4 х 2 1 4 О 4~П 20 группировать вносимый ими а Г^ + т И — 0 0 0 0 0 0 0 0 0 0 0 0 0 0 1 0 -1 2 0 - -2 1 0 0 0 0 | 0 ,2-п 0 0 0 0 0 0 0 0 0 | 0 1 - -2 0 2 -1 0 0 0 0 1 0 0 0 0 0 0 0 0 0 0 | 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 •1 4 — 4 4 - 1 -2 -9 6 4 6-9 2 1 -4 4 —4 1 2 11 4 16 4 -11 — 2 •1 4 —4 4 - 1 —2 + 40 -9 6 4 6-9 2 0 0 0 0 0 0 0 0 0 0 0 0 4 -16 16 • -16 4 8 14 16 - -16 16 -14 12 0 0 0 0 0 0 —4 2 4 2—4 0 -5 4 0 4 - 5 2 . 4-~ ° уТ 40 * — 4 2 4 2-40 0 0 0 0 0 0 - 6 0 16 0 6 -4 Легко проверить, что эта формула справедлива при n=0. С другой стороны, из структуры правой части (4.6) ясно, что если (4.6) имеет место для некоторого п, то оно справедливо и для /г+1. Таким спо- собом истинность (4.6) может быть установлена и без обращения к общей теории § 1. § 5. ПРИЛОЖЕНИЕ К ВРЕМЕНАМ ВОЗВРАЩЕНИЯ В задаче 19 гл. X 111,12 показывается, как выразить среднее р и дисперсию о2 времени возвращения рекуррентного события S через вероятности ип осуществления события S при /г-м испыта- нии. Если S не является периодическим, то 00 ►Vl* и 2 («„ — 1/ц) = (а2—н + н2)/(2р.2) (5.1) О при условии, что о2 конечна. Если отождествить <§ с возвратным состоянием Еу, то ип = рр (и и0 = 1). В конечной цепи Маркова все времена возвращения
458 Гл. XVI. Алгебраическая трактовка конечных цепей Маркова имеют конечные дисперсии (см. задачу 19 гл. XV, 14), так что (5.1) применимо. Предположим, что Ej не является периодическим и применима формула (1.5). Тогда /х = 1 и |/г|<1 при г = 2, 3, ...» так что pff—► &<.)>== рг1. Члену ип—р-1 суммы в (5.1) соответствует р pW-1/^=2^". (5.2) Эта формула справедлива при п^1; суммируя геометрическую прогрессию со знаменателем tr, находим со р 2 (р)?-1/н/) = 2 b<fftr/o-tr). (5.3) п=\ г=2 Подставляя это выражение в (5.1), мы находим, что если Еу— непериодическое возвратное состояние, то среднее время возвраще- ния в него равно , а дисперсия этого времени возвраще- ния равна р = И/-р? + 2pJ 2 W>tr/(1-tr) (5.4) r=2 при условии, что формула (1.5) применима и ^ = 1. Случай пе- риодических состояний и наличие двойных корней потребуют лишь очевидных изменений.
ГЛАВА XVII*) ПРОСТЕЙШИЕ СТОХАСТИЧЕСКИЕ ПРОЦЕССЫ С НЕПРЕРЫВНЫМ ВРЕМЕНЕМ § 1. ОБЩИЕ ПОНЯТИЯ. МАРКОВСКИЕ ПРОЦЕССЫ Цепи Маркова, изучавшиеся нами в предыдущих главах, могут быть описаны очень грубо как стохастические процессы, в которых будущее зависит лишь от настоящего состояния, но не от прошлой истории или того способа, которым было достигнуто настоящее сос- тояние. Эти процессы имеют только счетное множество значений (состояний) Ei, £2,... и зависят от дискретного временного парамет- ра, т. е. изменения могут происходить лишь в фиксированные мо- менты времени t=Q, 1,... . В настоящей главе мы рассмотрим такие явления, как телефонные вызовы, радиоактивный распад и расщеп- ление хромосом, в которых изменения могут происходить в любой момент времени. С математической точки зрения мы будем иметь дело со стохастическими процессами со счетным множеством сос- тояний, но зависящими уже от непрерывного временного параметра. В рамках дискретных вероятностей полное описание таких процес- сов невозможно, и мы на самом деле не в состоянии формально оп- ределить интересующий нас класс марковских процессов. Действительно, чтобы описать прошлую историю процесса, мы должны указать те моменты времени, в которые происходили изме- нения, а для этого потребуются вероятности на континууме. Выра- жение «будущее развитие не зависит от прошлой истории» имеет очевидное интуитивное значение (по крайней мере по аналогии с дис- кретными цепями Маркова), но для формального определения пот- ребуется понятие условной вероятности, лежащее за пределами этой книги. Однако многие задачи, связанные с такими процессами, мож- но изучать отдельно при помощи довольно элементарных методов, если принять на веру, что эти процессы действительно существуют. Так мы и будем теперь поступать. Переходной вероятности р$ для цепей Маркова теперь соот- ветствует переходная вероятность а именно условная ве- роятность состояния Ek в момент t + s при условии, что в момент s< /-f-s система находилась в состоянии Е^. Как показывает обо- значение, предполагается, что эта вероятность зависит только от продолжительности t временного интервала, но не от его положе- ния на оси времени. Такие переходные вероятности называются *) Эта глава почти независима от гл. X—XVI. Относительно использования термина «стохастический процесс» см, примечание 5 на с. 435,
460 Гл. XVII. Стохастические процессы с непрерывным временем стационарными или однородными по времени. (В § 9, однако, будут рассматриваться неоднородные процессы.) Аналогом основных соотношений (3.3) гл. XV является уравнение Колмого- рова— Чэпмена P^+ty^Pu^Pjdt), (1.1) / которое основано на следующем рассуждении. Предположим, что в момент времени 0 система находится в состоянии Et. Тогда /-й член в правой части представляет вероятность сложного события, состоящего в том, что система в момент времени т находится в сос- тоянии Ej, а в более поздний момент т-Н — в состоянии Ek. Но пе- реход из состояния Ei в момент времени 0 в состояние Ek в момент т+/ с необходимостью происходит через некоторое промежуточное' состояние Ej в момент времени т, и, суммируя по всем возможным Ej, мы видим, что (1.1) должно выполняться для произвольных (фик- сированных) т>0 и £>0. В этой главе мы будем изучать решения основного уравнения (1.1). Будет показано, что простые постулаты, приспособленные к конкрет- ным ситуациям, приводят к системам дифференциальных уравнений для Pjhfy и что из этих дифференциальных уравнений, даже не ре- шая их, можно получить интересные результаты. И эти результаты имеют смысл, потому что наши решения действительно являются переходными вероятностями марковского процесса, который одно- значно определяется этими вероятностями и начальным положением в момент времени 0. Этот интуитивно очевидный факт х) мы примем без доказательства. Для фиксированных / и t переходные вероятности Pjk (t) опре- деляют обычное дискретное распределение вероятностей. Оно за- висит от непрерывного параметра t, однако мы уже встречались с многими семействами распределений, зависящих от непрерывного параметра. Технически рассуждения последующих параграфов остаются в рамках дискретных вероятностей, но это искусствен- ное ограничение является для многих целей слишком строгим. Этот момент может проиллюстрировать распределение Пуассона \е~и (kt)n/n\\. Нулевой член е~и этого распределения можно интерпретировать как вероятность того, что за интервал времени фиксированной длины t не поступило ни одного телефонного вы- зова. Но тогда е~и будет также вероятностью того, что время ожидания первого вызова превышает t, и поэтому мы косвенно имеем дело с непрерывным распределением вероятностей на оси времени. Мы вернемся к этому вопросу в § 6. *) Стоит отметить, однако, что могут существовать (довольно патологические) немарковские процессы с теми же переходными вероятностями. Этот вопрос под- робно обсуждался в разд. 2а гл. XII в связи с процессами с независимыми прира- щениями (которые являются частным классом марковских процессов). См. также § 9, в частности примечание на с. 485—486,
§2, Пуассоновский процесс 46-Г § 2. ПУАССОНОВСКИЙ ПРОЦЕСС Пуассоновский процесс можно рассматривать с различных то- чек зрения, и здесь мы рассмотрим его в качестве прототипа все:: процессов из этой главы. Последующий вывод распределения Пуас- сона наилучшим образом подходит для наших обобщений, однако он никоим образом не является лучшим и в других контекстах. Его следует сравнить с элементарным выводом в гл. VI, 6 и с разд. 2а гл. XII, где пуассоновский процесс фигурировал как простейший процесс с независимыми приращениями. В качестве эмпирических предпосылок возьмем такие случайные события, как распад частиц, поступающие телефонные вызовы, рас- щепление хромосом под действием вредной радиации. Предпола- гается, что все наблюдаемые события однотипны, и мы интересуемся полным числом Z(/) событий, происшедших в течение произвольного интервала времени длины t. Каждое событие представляется точкой на оси времени, и поэтому мы в действительности рассматриваем некоторые случайные размещения точек на прямой. Лежащие в основе нашей математической модели физические предположения состоят в том, что силы и воздействия, управляющие процессом, ос- таются постоянными, так что вероятность любого отдельного собы- тия одна и та же для всех интервалов времени продолжительности t и не зависит от прошлого развития процесса. Математически это означает, что наш процесс является однородным по времени марков- ским процессом в смысле, описанном в предыдущем параграфе. Как уже выше говорилось, мы не стремимся к полной теории таких про- цессов, а удовольствуемся выводом основных вероятностей p„(0 = P{Z(0 = «}- (2.1) Они могут быть выведены из простых постулатов без обращения к более глубоким теоретическим соображениям. Чтобы ввести понятия, подходящие и для других процессов из этой главы, мы выберем начало отсчета времени и будем говорить, что в момент времени система находится в состоянии Еп, если между 0 и t произошло ровно п скачков [функции Z(/).— Пе- рсе.], Тогда Рп(0 равняется вероятности состояния Еп в момент Z, однако Pn(t) может быть также описана как вероятность перехода из произвольного состояния Ej в произвольный момент времени s в состояние EJ+n к моменту s+t Теперь наше нестрогое описание процесса мы преобразуем в свойства вероятностей Pn(f)- Разобьем временной интервал единичной длины на N подын- тервалов длины h^N"1. Вероятность скачка внутри любого из этих подынтервалов равна 1 — Ро (h), и поэтому математическое ожида- ние числа интервалов, содержащих скачки, равно h~l [1 — PQ (h)]. Интуитивно представляется, что при h~+ 0 это число должно стре- миться к математическому ожиданию числа скачков внутри произ- вольного интервала времени единичной длины, и поэтому естест-
462 Гл. XVII. Стохастические процессы с непрерывным временем венно предположить х), что существует число Х>0, такое, что /г1 [1_ро(/г)]->х. (2.2) Физическая картина процесса требует также, чтобы скачок обя- зательно приводил из состояния Ej в соседнее состояние Е/+ь и отсюда вытекает, что математическое ожидание числа подынтер- валов (длины Л), содержащих более чем один скачок, должно стре- миться к 0. Поэтому мы должны предположить, что при h 0 /г-41 - Ро (/г)-Л (Л)] 0. (2.3) Чтобы окончательно сформулировать постулаты, запишем (2.2) в виде Ро (^) = 1 — М+о(/г), где (как обычно) о (h) обозначает величи- ну, по порядку меньшую чем h. (Точнее говоря, о (h) означает такую величину, что h^o^h) -> 0 при h -> 0.) С учетом этого (2.3) экви- валентно соотношению Pi(/i)=M+o(/i). Сформулируем теперь следующие постулаты. Постулаты пуассоновского процесса. Процесс начинается в мо- мент времени 0 в состоянии Ео. (i) Непосредственный переход из состояния Ej возможен только в состояние Ej+1. (ii) Каково бы ни было состояние Ej процесса в момент времени t, (условная) вероят- ность скачка внутри последующего короткого интервала времени между t и t+h равна Мг+о(1г), тогда как (условная) вероятность наличия в нем более чем одного скачка есть o(h). Как было объяснено в предыдущем параграфе, эти условия сла- бее нашего исходного предположения об отсутствии влияния прош- лой истории процесса на его будущую эволюцию. С другой стороны, наши постулаты носят чисто аналитический характер, и их доста- точно, чтобы показать, что мы должны иметь Рп (t) = m-/n\]e^. (2.4) Для доказательства этого возьмем сперва ri+Л и рассмотрим событие, состоящее в том, что в момент времени t+h система находит- ся в состоянии Еп. Вероятность этого события равна Pn(t+h), и осуществиться оно может тремя взаимоисключающими способами. Во-первых, в момент времени t система может находиться в состоя- нии Еп, и между t и t+h не произойдет ни одного скачка. Вероят- ность этой возможности равна 2) Pn(t)P0(h)=Pn(t)[l-Mil+o (h). х) Предположение (2.2) вводится в основном потому, что его легко обоб- щить на другие процессы. В настоящем случае более естественным было бы заметить, что Ро (0 должно удовлетворять функциональному уравнению Ро (/Ч-т) =Ро (/) Pq (т), из которого вытекает (2.2) (см. § 6). 2) В этом равенстве используются не входящие в постулаты пуассоновского процесса условия независимости и однородности по времени изменений процесса на непересекающихся интервалах времени. Легко убедиться в том, что для вывода (2.4) в действительности достаточно сформулированных постулатов; ср. замеча- ние, сделанное после формулировки этих постулатов,— Прим, перев,
§3. Процесс чистого размножения 463 Вторая возможность состоит в том, что в момент времени t система находится в состоянии Еп_Т и между t и t+h происходит в точности один скачок. Вероятность этого равна Рп^ (фМг+о(Л). Любое дру- гое состояние в момент t потребует х) более одного скачка в интерва- ле между t и t+h, и вероятность подобного события есть о (/г). Следо- вательно, мы должны иметь Рп(т)=Рп(0(1-^)+^-1(0^+о(/г), (2.5) а это соотношение можно переписать в виде №n(t+h)-Pn (0+о(/г)/Л. (2.6) При h 0 последний член стремится к нулю; следовательно, пре- дел * 2) левой части существует и равен Р'п (t)=-%PM+KPn^t)t п>1. (2.7) При п=0 вторая и третья из упомянутых выше возможностей не воз- никают, и поэтому (2.5) следует заменить на Ро (t+h)=po (0 (1-Х/1)+о(й), (2.8) что приводит к = (2.9) Отсюда и из Ро (0) = 1 получаем Ро (/) = . Подставляя это зна- чение PQ (/) в (2.7) при п=1, мы получаем обыкновенное диффе- ренциальное уравнение для Pi(t). Поскольку Р1(0) = 0, мы легко находим, что P1(t) — kte~Ktt а это полностью согласуется с (2.4). Продолжая таким же образом, мы последовательно находим все члены (2.4). § 3. ПРОЦЕСС ЧИСТОГО РАЗМНОЖЕНИЯ Простейшее обобщение пуассоновского процесса получается при предположении, что вероятности скачков могут зависеть от теку- щего состояния системы. Это приводит нас к следующим требова- ниям. Постулаты, (i) Непосредственный переход из состояния Е,- воз- можен только в состояние El+i. (ii) Если в момент времени t систе- х) Для достижения Еп. Имеется в виду любое другое состояние Е^ при k < п—1 (при k > п переход из Е^ в Еп невозможен).— Прим, перев. 2) Поскольку мы рассматриваем лишь положительные h, то Рп (t) в (2.7) следует понимать как правостороннюю производную. В действительности же это обычная двусторонняя производная. В самом деле, член о (h) в (2.5) не зависит от t и поэтому остается неизменным при замене t на t—h. Таким образом, из (2.5) вытекает непрерывность, а из (2.6) — дифференцируемость в обычном смысле. Это замечание применимо на протяжении всей главы и повторяться не будет.
464 Гл. XVII. Стохастические процессы с непрерывным временем ма находится в состоянии Еп, то (условная) вероятность одного скачка в последующем коротком интервале времени между t и t+h равна Knh+o(h)f тогда как (условная) вероятность более чем од- ного скачка в этом интервале есть o(h). Отличительная черта этого предположения заключается в том, что время, которое система проводит в любом конкретном состоянии, не играет никакой роли; возможны внезапные изменения состояния, однако, пока система находится в одном состоянии, она не стареет. Пусть Pn(t) снова будет вероятностью того, что в момент времени t система находится в состоянии Еп. Эти функции Pn(t) удовлетво- ряют системе дифференциальных уравнений, которую можно вы- вести при помощи рассуждений предыдущего параграфа с тем лишь изменением, что (2.5) заменяется на pn(m)=pn(0 (\-inh)+pn^(t) Kn^h+o(й). (з.i) Таким образом мы получим основную систему дифференциальных уравнений р-п (0 = - кпРп (0 4- k^P^ (t), я > 1, P'(t) = -koPo(O. { } В пуассоновском процессе было естественно предполагать, что в момент времени 0 система выходит из начального состояния £0. Теперь мы можем допустить более общий случай, когда система вы- ходит из произвольного начального состояния Et. Тогда1 получаем, что х) Pf(0) = 1, Рп(0)=0 при n^=i. (3.3) Эти начальные условия единственным образом определяют реше- ние{Рп(0} системы (3.2). (Вчастности, /3>о(0==^>1(0=---1(0=0-) Явные формулы для Pn(t) выводились независимо многими автора- ми, однако для нас они не представляют интереса. Легко проверить, что для произвольных заданных система [Pn(t)} обладает всеми требуемыми свойствами, за исключением того, что при некоторых условиях 2^п(0<1- Это явление будет обсуждаться в § 4. Примеры, а) Радиоактивный распад. В результате испуска- ния частиц или у-лучей радиоактивный атом, скажем урана, может превратиться в атом другого вида. Каждый вид представляет собой возможное состояние, и, когда процесс протекает, мы получаем по- следовательность переходов E^E^E^.. Ет. Согласно приня- тым физическим теориям, вероятность перехода Еп -> En+i остается неизменной, пока атом находится в состоянии Еп, и эта гипотеза находит выражение в нашем исходном предположении. Стало быть, этот процесс описывается дифференциальными уравнениями (3.2) х) Следует отметить, что здесь Рп (t)—та же вероятность, что и пере- ходная вероятность (О в § 1,
§3. Процесс чистого размножения 465 (факт, хорошо известный физикам). Если Ет — конечное состояние, из которого невозможны никакие другие переходы, то Х7П=0 и сис- тема (3.2) обрывается при п~т. (При п>т мы автоматически полу- чаем Pn(t)=Q.) б) Процесс Юла. Рассмотрим совокупность, элементы которой могут (путем деления или каким-либо другим способом) порождать новых членов, но не могут умереть (исчезнуть). Предположим, что на протяжении любого короткого интервала времени длины h каждый элемент совокупности с вероятностью Хй+о('г) произво- дит новый элемент; постоянная X определяет скорость разрастания совокупности. Если между ее элементами нет никакого взаимодей- ствия и в момент времени t объем совокупности был равен п, то ве- роятность того, что ее увеличение произойдет в некоторый момент времени между t и будет равна nhh+o(h). Поэтому вероятность Pn(t) того, что в совокупности насчитывается ровно п элементов, удовлетворяет уравнениям (3.2) с т. е. уравнениям Р'п (0 = -пМ>п (t) + ("-!) (0> ri > 1, р; (О=о. Обозначим начальный объем совокупности через i. Тогда имеют мес- то начальные условия (3.3), и легко проверить, что при (3.4) и, конечно, Рп(0=0 при п < i и всех t. Используя обозначение (8.1) гл. VI для отрицательного биномиального распределения, мы можем переписать (3.5) в виде Pn(t)=f(n — i\ i, е~и). Отсюда следует (ср. пример гл. IX, 3,в)), что объем совокупности в мо- мент времени t является суммой i независимых случайных вели- чин, каждая из которых имеет распределение, получающееся из (3.5) при замене i на 1. Эти i величин представляют собой по- томства исходных элементов нашей совокупности. Процесс такого типа впервые исследовал Юл х) в связи с матема- х) Yule G. U., A mathematical theory of evolution, based on the conclusions of Dr. J. C. Willis, F. R. S., Philosophical Transactions of the Royal Society, Lon- don, Ser. B, 213 (1924), 21—87. Юл не вводил дифференциальных уравнений (3.4), а получил Pn(t) предельным переходом, подобным тому, который использовался в гл. VI, 5. Гораздо более общие и более гибкие модели того же типа были предложены и использованы для анализа эпидемий и роста популяций в написанной без осо- бых претензий, но чрезвычайно интересной статье подполковника М Кендрика <М’Kendrick A. G., Applications of mathematics to medical problems, Proceedings Edinburgh Mathematical Society, 44 (1925), 1—34). К сожалению, эта замечатель- ная работа прошла практически незамеченной. В частности, она была неизвестна автору настоящей книги, когда он вводил различные стохастические модели для роста популяции в статье Feller W., Die Grundlagen der Volterraschen Theorie des Kampfes ums Dasein in wahrscheinlichkeitstheoretischer Behandlung, Acta Biotheoretica, 5 (1939), 11—40,
466 Гл. XVIL Стохастические процессы с непрерывным временем тической теорией эволюции. Популяция состоит из видов в пре- делах одного рода, и появление нового вида обусловливается му- тациями. Предположение о том, что каждый вид имеет одну и ту же вероятность породить новый вид, пренебрегает разницей в разме- рах видов. Поскольку мы пренебрегли также возможностью выми- рания вида, можно ожидать, что (3.5) даст лишь грубое приближе- ние. Фэрри х) использовал ту же модель для описания процесса, свя- занного с космическими лучами, однако приближение снова было довольно грубым. Дифференциальные уравнения (3.4) применимы, строго говоря, к совокупностям частиц, которые могут делиться, образуя точные копии самих себя, при условии, конечно, что между частицами нет никаких взаимодействий. ► § 4* *). РАСХОДЯЩИЙСЯ ПРОЦЕСС РАЗМНОЖЕНИЯ Решение {Рп (/)} бесконечной системы дифференциальных уравне- ний (3.2), удовлетворяющее начальным условиям (3.3), может быть найдено индуктивно, начиная с Pi(t) = e~’Kit . Поэтому распреде- ление \Рп (/)} определено единственным образом. Из известных формул для решения линейных дифференциальных уравнений следует также, что Pn(t)^O. Остается открытым лишь вопрос о том, является ли {Рп (/)} настоящим распределением вероятностей, т. е. будет ли выполняться условие 2^ (0 = 1 (4-1) при всех t. Мы увидим, что это не всегда так: если коэффициенты быстро возрастают, то может случиться, что 2Р„(0<1- (4-2) Когда эта возможность была обнаружена, она показалась на- стораживающей, однако ее легко объяснить. Левую часть (4.2) мож- но интерпретировать как вероятность того, что на протяжении ин- тервала времени величины t имело место лишь конечное число скач- ков. Следовательно, разность правой и левой частей (4.2) отве- чает возможности бесконечного числа скачков, или своего рода взрыва. Чтобы лучше понять это явление, сравним нашу вероят- ностную модель роста с обычным детерминистским подходом. Величина в (3.2) может быть названа средней скоростью роста совокупности объема п. Например, в частном случае (3.4) имеем 1п=п%, так что здесь средняя скорость роста пропорциональна фак- тическому размеру популяции. Если рост не подвержен случайным флуктуациям и увеличивается со скоростью, пропорциональной г) Furry W. Н., On fluctuation phenomena in the passage of high-energy ele- ctrons through lead, Physical Reviews, 52 (1937), 569. * Этот параграф посвящен специальному вопросу и может быть опущен,
§ 4. Расходящийся процесс размножения 467 мгновенному размеру популяции х(0, то последний меняется в со- ответствии с детерминистским дифференциальным уравнением dx(t)ldt=lx(f)t (4.3) из которого следует, что x(t) = ieu, (4.4) где 1=х(0) есть начальный объем совокупности. Легко видеть, что математическое ожидание ^пРп (/) распределения (3.5) совпадает о x(t), так что x(t) описывает не только детерминированный процесс роста, но также и средний объем совокупности в примере 3, б). Рассмотрим теперь детерминированный процесс роста, в котором скорость роста увеличивается быстрее объема совокупности. Ско- рости роста, пропорциональной x?(t), соответствует дифференци- альное уравнение dx(t)/dt=^x2(t), (4.5) решение которого имеет вид л;(/) = г/(1—Mt). (4.6) Заметим, что x{t) неограниченно возрастает при t-+ 1/(М). Иначе говоря, из предположения о том, что скорость роста увеличивается как квадрат объема совокупности, вытекает бесконечный рост за конечный интервал времени. Аналогично, если в (3.4) возрас- тают слишком быстро, то с конечной вероятностью внутри конеч- ного интервала времени имеет место бесконечное число изменений. Точный ответ о том, каковы должны быть условия, при которых происходит такой неограниченный рост, дает следующая теорема. Теорема. Для того чтобы ^РпД) = \ при всех необходимо и достаточно, чтобы ряд расходился *). Доказательство. Положим 5,(0 = Л> (0 + ...+PH0- (4.7) В силу очевидной монотонности существует предел |X(O= lim [l-Sft(0]- (4.8) k -> 00 Суммируя дифференциальные уравнения (3.2) по п = 0, мы получаем 5И0 = -ММ0. (4.9) х) Нетрудно видеть, что неравенство либо выполняется для всех t > 0, либо не выполняется ни для одного i > 0; см, задачу 22.
4G8 Гл. XVII. Стохастические процессы с непрерывным временем С учетом начальных условий (3.3) отсюда вытекает, что при г t 1-Sk(t) = kk\pk(x)dx. (4.10) о В силу (4.8) величина в левой части лежит между р и 1; следо- вательно, t (4.11) о Суммируя по k = i, ..., и, мы получаем для пТэ i t Н (0 [ V + • • • + V] < 5 Sn (s) ГН... + V. (4.12) о Если то величина в самой правой части неравенства остается ограниченной при п—> оо, и поэтому невозможно, чтобы подынтегральное выражение стремилось к 1 при всех s. Наоборот, если то из первого неравенства мы заключаем, что р (t) = 0 при всех /, и в силу (4.8) отсюда вытекает, что Sn (/) —> 1, что и утверждалось. При вероятностной интерпретации этот критерий представляется весьма разумным. Система проводит некоторое время в начальном состоянии Ео, переходит из него в Elt остается там на время, переходит в Е2 и т. д. Ве- роятность Ро (/) того, что время пребывания в Ео превосходит /, получается из (3.2) равной Ро (/) = е-М. Это время пребывания То является случайной величиной, однако область ее значений есть положительная ось Z, и поэтому эта величина формально не укладывается в рамки этой книги. Однако, по- скольку переход от геометрического распределения к показательному три- виален, мы можем без особого вреда для себя немного отойти от строгого изложения. Приближение То дискретной случайной величиной с геометри- ческим распределением показывает, что среднее время пребывания в Ео естест- венно определить, как 00 Е (То) = J (4.13) о В тот момент времени, когда система попадает в Еу, состояние Ej берет на себя роль начального состояния, и поэтому такое же заключение применимо и ко времени пребывания Ту в Ef. среднее время пребывания в Ej равно Е(Ту) = Хтх. Отсюда следует, что Х“х + Х“3 + ... +Х"1 есть средняя продол- жительность времени, требующегося системе для того, чтобы пройти через Ео, Ех, Е„, и мы можем переформулировать критерий из § 4 следующим образом. Для того чтобы ^Pn(t) = 1 для всех t, необходимо и достаточно, чтобы 2 е (Т7) = 2Х71=оо; (4.14) т. е. суммарная средняя продолжительность времени, проведенного в Ео, Elt Е2, .... должна быть бесконечной. Разумеется, LQ (/) = 1—^Рп(/)есть вероятность того, что система прошла через все состояния до момента вре- мени С
§ 5. Процесс размножения и гибели 469'’ При такой интерпретации возможность неравенства (4.2) становится по- нятной. Если среднее время пребывания в Ej равно 2“^, то вероятность то- го, что система пройдет через все состояния за время 14-2“1 + 2“2-(-... — 2^ должна быть положительной. Аналогично частица, двигающаяся вдоль оси лг с экспоненциально возрастающей скоростью, пройдет всю ось эа конечное время. (Мы вернемся к расходящемуся процессу размножения в при- мере 9, б).) § 5. ПРОЦЕСС РАЗМНОЖЕНИЯ И ГИБЕЛИ Процесс чистого размножения из § 3 дает удовлетворительное описание радиоактивных превращений, однако он не может слу- жить реалистической моделью для изменений объема совокупности,, члены которой могут умирать (или исчезать). Это наводит на мысль, об обобщении нашей модели, допускающем переходы из Еп не толь- ко в ближайшее сверху состояние Еп+1, но и в ближайшее снизу сос- тояние Еп_г. (Процессы более общего вида будут определены в, § 9-t Таким образом, мы начнем со следующих постулатов. Постулаты. Изменения системы осуществляются только путем переходов из состояний в ближайшие к ним соседние состояния (из Еп в Еп+1 или в Еп_1 при и>1, а из Е^ — только в Ег). Если в момент времени t система находится в состоянии Еп, то вероятность того, что между t и t+h произойдет переход Еп-> Еп+1, равна knh+o(h)> а вероятность перехода Еп-+ Еп_1 (если п^Л) равна pnh+o(h). Вероятность более чем одного изменения на протяжении (t, t+h) есть o(h). Легко приспособить метод § 2 для вывода дифференциальных уравнений для вероятностей Pn(t) того, что система находится в состоянии Еп. Чтобы вычислить Pn(t+h), заметим, что состояние Еп в момент t+h возможно лишь при выполнении одного из следую- щих условий: 1) в момент t система находится в Еп и между t и t+h не происходит никаких изменений; 2) в момент t система на- ходится в En_t и происходит переход в Еп\ 3) в момент t система, находится в £„+1 и происходит переход в Еп\ 4) между t и t+h про- исходит два или несколько переходов. По предположению вероят- ность последнего события есть o(h). Первые три возможности вза- имно исключаются, и их вероятности складываются; поэтому Pn(t-\-h) — Pn (0{Л-М1-И„/1} + + (О +Р-П+Л+1 (0 + о (й). (5.1) Перенося член Pn(t) в левую часть и деля обе части уравнения на h, получаем в левой части разностное отношение для Рп(0> и в пре- деле при h -> 0 приходим к Рп (О = -(4 + р„) Рп (0+Ч-Л-! (0+ри+А+1 (О- (5.2)
470 Гл. XVII. Стохастические процессы с непрерывным временем Это уравнение справедливо при всех п^1. Для п=0 аналогичным образом получаем РИ0 = -М%(0+М\(0. (5.3) Если начальным состоянием является Ej, то начальными условиями будут Л(0) = 1, Рп(0)=0 при п^4. (5.4) Таким образом, мы видим, что процесс размножения и гибели зависит от бесконечной системы дифференциальных уравнений (5.2)—(5.3) с начальными условиями (5.4). Вопрос о существова- нии и единственности решения в этом случае отнюдь не тривиален. В процессе чистого размножения система дифференциальных урав- нений (3.2) также была бесконечной, но она имела вид рекуррентных соотношений: P0(t) определялась первым уравнением, a Pn(t) могла быть вычислена по Pn_t (t). Новая система (5.2) имеет иной вид, и все Pn(t) должны находиться одновременно. Здесь (как и в некото- рых других случаях в этой главе) мы сформулируем свойства реше- ний без доказательства х). Для произвольных заданных коэффициентов Kn^Q. всегда существует положительное решение {Рп (t)} системы (5.2)— (5.4), такое, что Если коэффициенты ограничены (или возрастают достаточно медленно), то это решение един- ственно и удовлетворяет условию регулярности ^РпН) = \. Од- нако можно выбрать коэффициенты таким образом, что J Рп (0 < 1 и будет существовать бесконечно много решений. В последнем слу- чае мы сталкиваемся с явлением, аналогичнььм изучавшемуся в пре- дыдущем параграфе для процесса чистого размножения. Эта ситуа- ция представляет значительный теоретический интерес, однако чи- татель может без опасения считать, что во всех практически ин- тересных случаях условия единственности выполнены; в этом слу- чае автоматически 2 ^«(0 = 1 (см. § 9). При Хо = О переход Ео—+ Et невозможен. В терминологии це- пей Маркова Ео является поглощающим состоянием, выход из которого невозможен; коль скоро система окажется в Ео, она останется там навсегда. Из (5.3) следует, что в этом случае Ро(0^0> так что Ро (0 монотонно возрастает. Предел ее PQ(oo) есть вероятность окончательного поглощения. х) Простейшее доказательство существования и критерий единственности получается как частный случай из общей теории, развитой автором (см. §9). Недавно привлекли широкое внимание такие решения уравнений для процесса размножения и гибели, что ^Pn(t)<iV По этому вопросу см. Lederman W., Re- uter G. Е., Spectral theory for the differential equations of simple birth and death processes, Philos. Trans. Roy. Soc., London, Ser. A, 246 (1954), 387—391; Karlin S., McGregor J. L., The differential equations of birth-and-death processes and the Stieltjes moment problem, Trans. Amer. Math. Soc., 85 (1957), 489—546; Karlin -S., McGregor J. L., The classification of birth and death processes, ibid, 86 (1957), 366—400. См. также Feller W., The birth and death processes as diffusion processes, Journal de Mathematiques Pures et Appliquees, 38(1959), 301—345.
§5. Процесс размножения и гибели 471 Можно показать (либо используя явный вид решений, либо из общих эргодических теорем для марковских процессов), что в лю- бом случае пределы lim Pn(t) = pn (5.5) t -> 00 существуют и не зависят от начальных условий (5.4); они удовлетво- ряют системе линейных уравнений, которая получается из (5.2)— (5.3) при замене производных в левой части нулями. Соотношения (5.5) напоминают предельные теоремы, выведенные- в гл. XV, 7 для обычных цепей Маркова, и это не просто формаль- ное сходство. Эти соотношения становятся интуитивно почти оче- видными при сравнении нашего процесса с простой цепью Мар- кова с переходными вероятностями Pnt n + l=W (^п + Нп)? Рп, П-1 = Р'п/ (^п+Нп)’ (5.6) В этой цепи единственными возможными переходами являются Еп -> Еп+1 и Еп -> Еп_1, и они имеют те же условные вероятнос- ти, что и в нашем процессе; разница между этой цепью и нашим про- цессом заключается в том, что в последнем изменения могут проис- ходить в произвольные моменты времени, так что число переходов в интервале времени длины t является случайной величиной. Однако при больших t это число заведомо будет большим, и поэтому весьма правдоподобно, что при /~>оо вероятности Pn(t) будут вести себя так же, как соответствующие вероятности для простой цепи. Если простая цепь с переходными вероятностями (5.6) невоз- вратна, то при всех п мы имеем рп=0', если эта цепь эргодична, то рп определяют стационарное распределение вероятностей. В этом случае (5.5) обычно интерпретируется как «тенденция к устойчиво- му положению», и это двусмысленное наименование вызвало много путаницы. Следует понимать, что, за исключением того случая, ког- да Ео есть поглощающее состояние, случайные флуктуации продол- жаются вечно, не ослабевая, и (5.5) показывает лишь, что в конце концов влияние начальных условий исчезает. Сделанные в гл. XV, 7 замечания о статистическом равновесии применимы здесь без изме- нений. Главной областью приложений процессов размножения и гибе- ли являются задачи о времени ожидания, задачи о телефонных ли- ниям и т. д.; см. § 6 и 7. Примеры, а) Линейный рост. Предположим, что элементы сово- купности могут делиться или умирать. Для любого живого элемен- та вероятность разделиться на два на протяжении любого коротко- го интервала времени длины h равна ХЛ+о(Л), тогда как соответст- вующая вероятность гибели равна рЛ+о(Л). Здесь X и ц— две по- стоянные, характеризующие совокупность. Если между ее элемен- тами нет никакого взаимодействия, то мы приходим к процессу раз-
472 Гл. XVII, Стохастические процессы с непрерывным временем множения и гибели с Xn=nX, Основные дифференциальные уравнения принимают вид Л(0 = -(А+н)п^(0+^(п-1)Рп-1(0+н(«4-1)^+1(0. ( j Можно найти явные решения1) (см. задачи 11 —14), однако мы не будем обсуждать этот аспект. Пределы (5.5) здесь сущест- вуют и удовлетворяют (5.7) при P'n(t)=Q. Из первого уравнения находим р1 = 0, а из второго уравнения по индукции находим, что р„ = 0 при всех /г^1. Если р0=1, т0 мы можем сказать, что вероятность окончательного вымирания равна 1. Если р0<1, то из соотношений р1==р2=...=0 вытекает, что с вероятностью 1 — совокупность будет безгранично расти; в конце концов она либо вымрет, либо будет бесконечно возрастать. Чтобы найти ве- роятность р0 вымирания, сравним наш процесс с соответствующей депью Маркова. В нашем случае переходные вероятности (5.6) не зависят от /г, и стало быть, мы имеем обычное случайное блуждание, в котором шаги направо и налево имеют вероятности р== X/(А+ р) и д = р/(Х + н) соответственно. Состояние £*0 является поглощаю- щим. Из классической задачи о разорении (см. гл. XIV, 2) мы знаем, что вероятность вымирания равна 1 при p^q и равна (qlpY, если q < р и i есть начальное состояние. Отсюда мы заключаем, что в нашем процессе вероятность р0 = lim Ро (/) окончательного вымирания равна 1 при К р, и равна fal^Y при А > р, (Это легко проверить при помощи явного решения; см. задачи 11 —14.) Как и во многих подобных случаях, явный вид решения системы (5.7) довольно сложен, и поэтому хорошо было бы найти среднее и дисперсию распределения {Pn(f)} непосредственно из дифференци- альных уравнений. Для среднего имеем м (О = 2 пРп (t). (5.8) /2=1 Мы опустим формальное доказательство того, что М (/) конечно, а следующие формальные операции обоснованы (и то, и другое легко следует из вида решения, приведенного в задаче 12). Умножая второе из уравнений (5.7) на п и суммируя по п=1, 2, . . ., мы об- наруживаем, что члены, содержащие п2, взаимно уничтожаются, L) Систематический подход здесь состоит в выводе уравнения в частных производных для производящей функции 2(0 sn* Более общий процесс, в котором допускается зависимость коэффициентов А и р в (5.7) от времени, детально обсуждается в работе Kendall Е). G., The generalized “birthjjnd death” process, Ann. Math. Statist., 19(1948), 1 — 15. См. также статью того же автора Stochastic processes and population growth, Journal of the Royal Statistical Society, B, 11 (1949), 230—265, где теория обобщается так, что она учиты- вает распределение возраста элементов в биологических популяциях,
§ 6. Показательные времена обслуживания 473 и получаем М' (0=к 2 (п-1) Рп^ (/)-и 2 (" +1) Рп+1 (0 = = (%—р,)Л4 (/). (5.9) Это дифференциальное уравнение для М (/). Начальный объем совокупности равен i, и поэтому М (0) = i. Стало быть, M(t) = ie^^. (5.10) Мы видим, что среднее стремится к 0 при Х<р, и к бесконечности при К>р,. Дисперсию распределения {Рп(/)} можно вычислить аналогичным образом (см. задачу 14). б) Очередь в случае одного канала, В простейшем случае посто- янных коэффициентов и процесс размножения и гибели1 сводится к частному случаю примера 7, б) (задачи об очередях) при а=1. § 6. ПОКАЗАТЕЛЬНЫЕ ВРЕМЕНА ОБСЛУЖИВАНИЯ1) Основная область приложения процессов размножения и гибели связана с расчетом числа телефонных линий 2) и различными типами очередей к телефонам, прилавкам или машинам. Этот тип задач может изучаться на различных уровнях математической абстракции. Метод процесса размножения и гибели является простейшим под- ходом, однако эта модель основана на математическом упрощении г известном как предположение о показательных временах обслужи- вания. Мы начнем с обсуждения этого основного предположения. Рассмотрим для конкретности телефонный разговор и предполо- жим, что его продолжительность обязательно равна целому числу секунд. Мы рассматриваем продолжительность разговора как слу- чайную величину X и считаем известным ее распределение вероят- ностей рп=Р{Х=п}. Тогда телефонная линия представляет собой физическую систему с двумя возможными состояниями «занято» (Ео) и «свободно» (£i). Когда линия занята, вероятность изменения состояния в течение следующей секунды зависит от того, как долго уже идет разговор. Иначе говоря, прошлое влияет на будущее, и поэтому наш процесс не является марковским (см. гл. XV, 13). Эта обстоятельство является источником трудностей, однако, к счастью, существует простое исключение, подробно обсуждавшееся в гл. XIII, 9. Представим себе, что решение о том, продолжать или нет разго- вор, принимается каждую секунду бросанием несимметричной мо- неты. Иначе говоря, со скоростью одно испытание в секунду произ- водится последовательность испытаний Бернулли, которая продол- х) В оригинале exponential holding times.— Прим, перев. 2) В оригинале trunking in telephone engineering.— Прим. перев,
474 Гл. XVII. Стохастические процессы с непрерывным временем жается до первого успеха. Когда этот первый успех произойдет, разговор окончится. В этом случае общая продолжительность раз- говора, или «время обслуживания», имеет геометрическое распре- деление pn=qn~1p. Когда линия занята, вероятность того, что она останется занятой более одной секунды, равна q, а вероятность перехода на следующем шаге равна р. Теперь эти вероят- ности не зависят от того, как долго была занята линия. Когда использование дискретного временного параметра оказы- вается нежелательным, приходится работать с непрерывными слу- чайными величинами. Тогда роль геометрического распределения для времен ожидания берет на себя показательное распределение. Это единственное распределение, имеющее марковский характер, т. е. наделенное полной потерей памяти. Иначе говоря, вероятность того, что разговор, происходящий в момент времени х, продлится до %+Л, не зависит от продолжительности предыдущего разговора тогда и только тогда, когда вероятность того, что разговор продлит- ся более t единиц времени, равна e~Kt. Мы уже встречались с этим «показательным временем обслуживания» как с нулевым членом распределения Пуассона (2.4), т. е. как с временем ожидания пер- вого изменения. Метод процесса размножения и гибели применим только тогда, когда изучаемые переходные вероятности не зависят от прошлого; для задач о числе занятых линий и об очередях это означает, что все времена обслуживания должны быть показательными. С прак- тической точки зрения это предположение может на первый взгляд показаться довольно искусственным, однако опыт показывает, что оно неплохо описывает реальные явления. В частности, многочис- ленные измерения показали, что телефонные разговоры внутри города х) следуют показательному закону с поразительной степенью точности. Та же ситуация превалирует и в случае других времен обслуживания (например, продолжительности ремонта машин). Остается охарактеризовать так называемый входной поток (по- ступающие вызовы, поломки станков и т. д.). Мы предположим, что вероятность поступления вызова в течение любого интервала времени длины h равна АЛ плюс пренебрежимо малые члены и что вероятностью более чем одного вызова в этом интервале в пределе можно пренебречь. Согласно результатам § 2, это означает, что число поступивших [до момента времени t.— Перев.] вызовов имеет распределение Пуассона со средним М. Мы будем описывать эту ситуацию, говоря, что входной поток имеет пуассоновский тип с интенсивностью К. Легко проверить описанное свойство показательных времен обслуживания. Обозначим через и (/) вероятность того, что разговор продлится не менее t единиц времени. Вероятность u(t-\-s) того, что разговор, начавшийся в момент 0, окон- х) Для междугородных разговоров единицей измерения обычно служат три минуты, и поэтому времена обслуживания часто являются кратными трем мину- там. При таких обстоятельствах показательное распределение неприменимо,
§ 7. Очереди и задачи обслуживания 475 чится после момента /+$, равна вероятности того, что он продлится более t еди- ниц времени, умноженной на условную вероятность того, что разговор продлится еще s дополнительных единиц времени при условии, что его длина превышает t. Если продолжительность предыдущего разговора не оказывает никакого влияния, то последняя условная вероятность должна равняться ц($), т. е. мы должны иметь- и (/H-s) = и (t) и (s). (6.1) Для доказательства сформулированного выше характеристического свойства показательных времен обслуживания было бы достаточно показать, что мо- нотонные решения этого функционального уравнения с необходимостью имеют вид е~М. Мы докажем несколько более сильный результат, представляющий самостоятельный интерес х). Теорема. Пусть и—решение уравнения (6.1), определенное при t > 0 и ог- раниченное на некотором интервале. Тогда либо u(t)=0 при всех t, либо и (t) = е~М, где X— некоторая постоянная. Доказательство. Ясно, что и (а) = и* 2 (а/2). (6.2) Предположим сперва, что и(а) = 0 для некоторого значения а. Из (6.2) мы заключаем по индукции, что и (2~па) = 0 для всех целых и, а из (6.1) ясно, что из w(s)=0 вытекает равенство w(/) = 0 при всех t > s. Поэтому из и(а)=§ следует, что и тождественно обращается в нуль. Поскольку (6.2) очевидным образом исключает отрицательные значения ц, то остается рас- смотреть лишь строго положительные решения уравнения (6.1). Положим е~^ = ц(1) и v(t)—e^u(t). Тогда v (H-s) —V (t) v (s) и ц(1) = 1. (6.3) Мы должны доказать, что отсюда вытекает равенство ц(/) = 1 при всех t. Очевидно, что для произвольных положительных целых чисел тип v (т/п) = vm (Х/п) — vm (1) = 1, (6.4) и поэтому t,(s) = l для всех рациональных s. Кроме того, если и(а) = с, то о{пф—сп для любого положительного или отрицательного целого числа п. Отсюда следует, что если v принимает некоторое значение с 1, то оно при- нимает также произвольно большие значения. Однако из (6.3) при = r видно, что v (т—$) = у(т) для всех рациональных s. Следовательно, если зна- чение А принимается в некоторой точке т, то то же самое значение прини- мается на каждом сколь угодно малом интервале. Стало быть, ограниченность и на каком-либо заданном интервале не допускает значений v. отличных от единицы. § 7. ОЧЕРЕДИ И ЗАДАЧИ ОБСЛУЖИВАНИЯ а) Простейшая задача о телефонных линиях 2). Предположим, что имеется бесконечно много линий или каналов и что вероятность окончания разговора между моментами времени t и t-[-h равна рА+ х) Уравнение (6.1) является лишь логарифмическим вариантом записи извест- ного уравнения Гамеля /(/+$)=/(/)+/(s). Мы доказываем, что его решения либо имеют вид at, либо неограниченны на каждом интервале. (Известно, что ни одно такое решение не является функцией Бэра, т. е. ни одно такое решение не может быть получено при помощи разложения в ряд или какого-либо иного предельного процесса, отправляющегося от непрерывных функций.) 2) Palm С., Intensitatsschwankungen in Fernsprechverkehr, Ericsson Technics (Stockholm), 44 (1943), 1—189, в частности, с. 57. Очереди и задачи обслуживания
476 Гл. XVII. Стохастические процессы с непрерывным временем +о(1г) (показательное время обслуживания). Поступающие вызовы образуют поток пуассоновского типа с параметром X. Система нахо- дится в состоянии Еп, если занято п линий. Предполагается, конечно, что продолжительности разговоров взаимно независимы. Если занято п линий, то вероятность того, что одна из них освободится в течение времени й, равна npLh-\-o(h). Вероятность прекращения за это время двух или нескольких разго- воров является, очевидно, величиной порядка /г2, и поэтому ей мож- но пренебречь. Вероятность поступления нового вызова равна +о(Л). Вероятность нескольких вызовов или поступления вызова и окончания разговора тоже есть o(h). Таким образом, в обозначе- ния : § 5 %П=Х, С7'1) Основные дифференциальные уравнения (5.2) — (5.3) принимают вид P'0(t) = -*Рв(0+1Щ(0. 72, р;(0 = -(х+пИ)Р„(0+^п-1(0 + (« + 1)н7’и+1(0 1 ’ при Явные решения могут быть получены путем вывода диф- ференциального уравнения в частных производных для произво- дящей функции (см. задачу 15). Мы определим лишь величины рп— =limPn(0 из (5.5). Они удовлетворяют уравнениям ^« = №- (73) (Х4-/гр) р„ = ^р„_14-(« + 1) ИРл+г По индукции находим рп — р0 (к/ц)п/п!, и отсюда рп = е-^^1\£)п1п\. (7.4) Таким образом, предельное распределение является распределением Пуассона с параметром 1/р. Оно не зависит от начального СОСтОЯ- НЛЯ. Легко найти среднее М (Ц = У^пРп(1). Умножая n-е уравнение (7.2) на п, суммируя и учитывая, что Pn(t) в сумме дают единицу, мы получаем М’ (/). (7.5) Если начальным является состояние Е/, то М. (0) — i и М (t) = (%/и) (1 —e-vf) + ie-vC (7.6) Читатель может проверить, что в частном случае г = 0 величины Рп (t) да- ются в точности распределением Пуассона со средним М (/). для телефонных станций изучались задолго до появления теории стохастических процессов и оказали стимулирующее влияние на развитие этой теории. В част- ности, замечательная работа Пальма оказалась полезной на протяжении многих лет. Самые ранние работы в этой области принадлежат А. К- Эрлангу (1878—1929); см. Brockmeyer Е., Halstrom Н. L., Jensen Arne, The life and works of A. K. Erlang, Transactions of the Danish Academy Technical Sciences, No. 2, Copenhagen, 1948. Ценная основополагающая работа была независимо проделана Фраем, книга ко- торого (Fry Т. С., Probability and its engineering uses, New York, Van Nostrand, 1928) много сделала для развития приложений теории вероятностей в технике,
$ 7. Очереди и задачи обслуживания 477 б) Очереди в случае конечного числа каналов х). Видоизменим те- перь последний пример, чтобы получить более реалистичную модель. Предположения здесь те же самые, за исключением того, что число а линий или каналов конечно. Если все а каналов заняты, то каждый новый вызов встает в очередь и ожидает до тех пор, пока не освобо- дится какой-либо канал. Это означает, что все линии имеют общую очередь. Слово «линия» может быть заменено на стойку в почтовом от- делении, а «разговор» — на обслуживание. Практически мы рас- сматриваем общую задачу об очереди в предположении, что клиент должен ожидать лишь тогда, когда все а каналов заняты. Мы говорим, что система находится в состоянии Еп, если ровно п клиентов либо обслуживаются, либо стоят в очереди. Такая оче- редь существует только при п>а, и тогда в ней стоят п—а клиентов. До тех пор пока хотя бы один канал свободен, ситуация здесь точно такая же, как и в предыдущем примере. Однако если система находится в состоянии Еп при п>а, то идет только а разговоров, и поэтому рп=ар при п^а. Стало быть, основная система дифферен- циальных уравнений состоит из уравнений (7.2) для п<7а и из уравнений Рп {f)+a^Pn+1 (/) (7.7) для п^а. В частном случае одного канала (а=1) эти уравнения сводятся к уравнениям для процесса размножения и гибели с коэффициента- ми, не зависящими от п. Пределы pn=lim Рп (/) удовлетворяют (7.3) при п<7а и (Х+ац)рп=Хр„_1+ар,рп+1 (7.8) при п^а. Последовательно находим Pn = Po(W)nM!, (7.9) Рп = Рь пТ^а. (7.10) Ряд ^(pJpq) сходится только тогда, когда Х/р<а. (7.11) Следовательно, предельное распределение {рь} не может существо- вать при В этом случае рп=0 для всех п, и это означает, что очередь будет безгранично возрастать. С другой стороны, если вы- полнено (7.11), то мы можем определить pQ так, чтобы ^рп=1. С по- мощью явных выражений для Рп (/) можно показать, что получае- мые таким образом рп действительно представляют собой предельное распределение для Pn(t). Табл. 1 дает численную иллюстрацию для 6Z=3, %/р =2. х) Колмогоров А. Н. О проблеме ожидания.— Математический сборник, 1931, 38 : 1—2, 101—106, Относительно аналогичных процессов см. задачи 6—8 и 20,
478 Гл. XVII. Стохастические процессы с непрерывным временем Таблица I Предельные вероятности в случае а — 3 каналов и Х/|ж = 2 п 0 1 2 3 4 5 6 7 Число занятых каналов Число ожидаю- щих клиентов Рп 0 0 0,1111 1 0 0,2222 2 0 0,2222 3 0 0,1481 3 1 0,09888 3 2 0,0658 3 3 0,0439 3 4 0,0293 в) Обслуживание станков х). Для ориентировки мы начнем с простейшего случая и обобщим его в следующем примере. Задача состоит в следующем. Рассмотрим станки-автоматы, которые обычно не требуют ухо- да за исключением того, что они могут сломаться и потребовать об- служивания. Время, требующееся для обслуживания станка, вновь считается случайной величиной с показательным распределением. Иначе говоря, станок характеризуется двумя постоянными X и |Л со следующими свойствами. Если в момент времени t станок нахо- дится в рабочем состоянии, то вероятность того, что он потребует обслуживания до момента t+h, равняется kh плюс члены, пренеб- режимые в пределе при h-^Q. Наоборот, когда станок находится на обслуживании, вероятность того, что время обслуживания окон- чится до момента t+h и станок вернется в рабочее состояние, рав- няется [ih+o (h). Для производительного станка к должно быть срав- нительно малым, а — сравнительно большим. Отношение Х/р, называется коэффициентом обслуживания. Мы предполагаем, что т независимо работающих станков с одними и теми же параметрами к и р обслуживаются одним ра- бочим. Сломавшийся станок обслуживается немедленно, если рабо- чий не занят обслуживанием другого станка, а в последнем случае образуется очередь. Мы говорим, что система находится в состоя- нии Еп, если не работает п станков. При это означает, что один станок находится на обслуживании, а п—1 — в очереди; в состоянии Ео все станки работают, и рабочий не занят. Переход Еп-+Еп+1 вызывается поломкой одного из т—п рабо- тающих станков, тогда как переход Еп-+Еп_г происходит тогда, когда обслуживаемый станок возвращается в рабочее состояние. Следовательно, мы имеем процесс размножения и гибели с коэффи- х) Примеры в) и г), включающие численные иллюстрации, взяты из статьи Пальма «Распределение числа рабочих при обслуживании автоматов» (на швед- ском языке) из Industritidningen Norden, 75 (1947), 75—80, 90—94, 119—123. Пальм приводит таблицы и графики для наиболее экономичного числа рабочих*
§ 7. Очереди и задачи обслуживания 479 циентами %n=(m—п)К, |ло=О, Ц1=Н2=. • •Р-т=Н- (7.12) При 1 основные дифференциальные уравнения (5.2) при- нимают вид P'n(t) = — {(пг—n)2i + p} Р„ (0 + + (m_„ + l)X/’„_1(0+pP„+i(0. (7.13) в то время как для крайних состояний п = 0 и п — т Р’^) = -тКР^+уЛ\(1), p;(0 = -p/’ffl(0+^m_1(0- а) Мы пришли к конечной системе дифференциальных уравнений, ко- торая может быть решена обычными методами. Пределы рп = = lim Рп (t) определяются из уравнений {(m—n)2i + p}p„ = (m—пф-1) Хр„_1 + рр„+1, (7.14) PPm ~ которые можно привести к рекуррентному виду: (т—п)Крп=ррп+1. (7.15) Подставляя последовательно п=т—1, пг—2, 1, 0, получаем /’т-й = (1/^!)(нА)йРи- Оставшаяся неизвестной постоянная рт может быть найдена из того условия, что pj в сумме дают единицу. Результат известен как формула Эрланга". рт = {1 + (1/1!) (рА)1 + ... + (1/т!) (рА)™}-1. (7.16) Типичные численные значения приведены в табл. 2. Таблица 2 Формула Эрланга Вероятности рп для случая Х/ц = 0,1, ш = 6 п S и о о ° ft « ф Г? hr! п* S п Рп Рп 4 5 6 3 4 5 0 1 2 3 0 0 1 2 0,4845 0,2907 0,1454 0,0582 0,0175 0,0035 0,0003
480 Гл. XVII. Стохастические процессы с непрерывным временем Вероятность р0 можно интерпретировать как вероятность того, что рабочий будет свободен (в примере из табл. 2 он должен быть свободен примерно половину всего времени). Среднее число станков в очереди равно т т W= 2 (k— l)pft= 2 kpk—(1— р„). (7.17) Эту величину можно вычислить суммированием соотношений (7.15) при п=0, 1, . . ., т. Используя тот факт, что рп в сумме составляют единицу, мы получаем тК—Ъш—X (1—р0)=р (1—р0), или w—tn—[(Х+ц)Д] (1—р0). (7.18) В примере из табл. 2 мы имеем ку=6* 0,0549. Таким образом, 0,0549 есть средний вклад одного станка в очередь. г) Продолжение', несколько рабочих. Мы не будем менять основ- ные предположения предыдущей задачи, за исключением того, что теперь т станков обслуживаются г рабочими (r<m). Таким обра- зом, при состояние Еп означает, что г—п рабочих не занято, п станков обслуживаются и в очереди на ремонт нет ни одного станка. При п>г состояние Еп означает, что г станков обслужива- ются и п—г станков стоят в очереди. Мы можем воспользоваться здесь рассуждениями из предыдущего примера с тем исключением, что (7.12) должно быть, очевидно, заменено на Хо = тХ, Ро = О» Ч = (т—[1п = П[1, l^n^r, (7.19) hn = (m—п)Х, = Мы не будем выписывать основную систему дифференциальных урав- нений, а ограничимся лишь уравнениями для предельных вероят- ностей рп. При l^/i<r {(т—п) Х + пц}р„ = (/и—п + 1) Хр„_1 + (п + 1)|лр„+й (7.20а) а при г п т {(пг—п) Л, +- гр,} рп = (т—П+ 1) %pn_i + фр„+£. (7.206) При п = 0, очевидно, mTp0 = [ip1. Это равенство определяет отно- шение Pi/Po> и из (7.20а) мы получаем по индукции, что при п < г (n+\)ppn+i = (m—ti)Kpn‘, (7.21) наконец, при п^г мы видим из (7.206), что ФР„+1 = (т—п) Крп. (7.22) Эти уравнения позволяют последовательно вычислить все отноше- ния рп/рй. Наконец, pQ определяется из условия Зна- чения, приведенные в табл. 3, получены именно таким способом.
$ 7< Очереди и задачи обслуживания 481 Таблица 3 Вероятности рп для случая 1/р,==0,1, т = 20, г = 3 п Число обслужи- ваемых станков Число станков в очереди Число незанятых рабочих &П 0 0 0 3 0,13625 1 1 0 2 0,27250 2 2 0 1 0,25888 3 3 0 0 0,15533 4 3 1 0 0,08802 5 3 2 0 0,04694 6 3 3 0 0,02347 7 3 4 0 0,01095 8 3 5 0 0,00475 9 3 6 0 0,00190 10 3 7 0 0,00070 11 3 8 0 0,00023 12 3 9 0 0,00007 При сравнении табл. 2 и 3 выясняются удивительные факты. Эти таблицы относятся к одним и тем же станкам (A/p = 0,1), однако во втором случае мы имеем т = 20 станков и г = 3 ра- бочих. Число станков на одного рабочего возросло с 6 до 62/3, и все же станки обслуживаются более эффективно. Определим коэффициент простоя для станков w Среднее число станков в очереди <у qqx т Общее число станков ' ’ ' и коэффициент простоя для рабочих р _Среднее число незанятых рабочих /7 "г Общее число рабочих * ‘ ' Для практических целей мы можем отождествить вероятности Рп (/) с их пределами рп. Тогда в случае табл. 3 мы имеем w = = Р4 + 2р5 + Зрв+... 4-17р20 и р = 3ро + 2р1+ра. Табл. 4 убе- Таблица 4 Сравнение эффективности двух систем, рассмотренных в примерах «в» и «г» «в» «г» Число станков Число рабочих Число станков на одного рабочего Коэффициент простоя для рабочих Коэффициент простоя для станков 6 1 6 0,4845 0,0549 20 3 6% 0,4042 0,01694 16 № 221
482 Гл. XVII. Стохастические процессы с непрерывным временем дительно доказывает, что для наших конкретных станков (сХ/р,=О,1) иметь трех рабочих на двадцать станков намного экономичнее, чем одного рабочего на шесть станков. д) Задача о снабжении энергиейх). Одна электрическая цепь снаб- жает энергией а сварщиков, которые используют эту энергию лишь время от времени. Если в момент времени t сварщик использует энергию, то вероятность того, что он перестанет пользоваться ею до момента /+А, равна рА+о(/г); если в момент времени t электро- энергия ему не требуется, то вероятность того, что она потребуется ему до момента равна Х/г+о(/г). Сварщики работают независи- мо друг от друга. Мы говорим, что система находится в состоянии £п, если элект- роэнергию используют п сварщиков. Таким образом, мы имеем лишь конечное число состояний Е^ . . ., Еа. Если система находится в состоянии Еп, то а—п сварщиков не потребляют электроэнергию, и вероятность возникновения на про- тяжении интервала времени длины h новой потребности в энергии равна (а—п)ЛЛ+о(/г); с другой стороны, вероятность того, что один из п сварщиков перестанет пользоваться энергией, равна прЛ4- 4-о (h). Следовательно, мы имеем процесс размножения и гибели с Кп==(а—(7.25) Основные дифференциальные уравнения принимают вид РИО = -аХРо(О+нЛ (О, Р'п (0 = + (а—п) Р„ (0 + (п + 1) цР„+1 (0 + + (а-д+1)ХР„м(0, <7-26) р;=-аИр0 (0 + ^(0. (Здесь —1.) Легко проверить, что предельные вероят- ности даются биномиальным распределением результат, который можно было бы здесь интуитивно ожидать (яв- ные выражения для Pn(t) приведены в задаче 17). § 8. ОБРАТНЫЕ (ОБРАЩЕННЫЕ В ПРОШЛОЕ) УРАВНЕНИЯ В предыдущих параграфах мы изучали вероятности Рп (t) того, что система в момент времени t находится в состоянии Еп. Это обо- значение удобно, однако оно может и ввести в заблуждение, так 1) Этот пример был подсказан задачей, изучавшейся (хотя и неудачно) в ра- боте Adler Н. A., Miller К. W., A new approach to probability problems in electrical engineeringt Transactions of the American Institute of Electrical Engineers, 65 (1946), 630—632,
§ 8. Обратные (обращенные в прошлое) уравнения 483 как в нем не указывается начальное состояние Et системы в момент времени нуль. Для дальнейшего развития нашей теории предпоч- тительнее вернуться к обозначениям § 1 и воспользоваться переход- ными вероятностями, В соответствии с этим мы обозначим через Pin (О (условную) вероятность состояния Еп в момент времени t+s при условии, что в момент s система находилась в состоянии Е^ Мы будем по-прежнему обозначать через Pn(t) (безусловную) ве- роятность состояния Еп в момент времени t. Если задано начальное состояние Eit то безусловная вероятность Pn(t) совпадает с Pjn(O» однако, когда начальное состояние выбирается в соответствии с распределением вероятностей {аД мы имеем Р„(0 = 2а,Рм(0- (8.1) Для рассматривавшихся до сих пор частных процессов мы пока- зали, что при фиксированном i переходные вероятности Pin(/) удовлетворяют основным дифференциальным уравнениям (3.2) и (5.2). Индекс i появляется только в начальных условиях, а именно Р 1 npun = i, 2 г1п\у) | 0 в противном случае. ' ' Чтобы подготовиться к теории более общих процессов, мы пока- жем сейчас, что эти же переходные вероятности удовлетворяют также и второй системе дифференциальных уравнений. Для объяс- нения основных идей начнем с процесса чистого размножения из § 3. При выводе дифференциальных уравнений (3.2) мы продолжали интервал времени (0, t) до (0, t+h) и рассматривали возможные изменения на протяжении короткого промежутка времени (/, t+h). Но мы могли таким же образом продолжать интервал (0, t) и в на- правлении прошлого и рассматривать изменения на протяжении (—h, 0). Таким образом мы получаем новую систему дифференци- альных уравнений, в которой остается фиксированным п (вместо i). Действительно, переход из Ег в момент времени —h в состояние Еп в момент времени t может произойти тремя взаимоисключающи- ми способами: 1) между —h и 0 нет никаких скачков, и система пе- реходит в Еп из состояния Et в момент времени 0; 2) между —h и 0 происходит ровно один скачок, и система переходит из Ei+i в мо- мент времени 0 в состояние Еп в момент t; 3) между —h и 0 происхо- дит более одного скачка. Вероятность первой возможности равна 1—hih+o(h)t второй kih+o(h), тогда как третья возможность имеет вероятность o(h). Как и в § 2 и 3, мы заключаем, что Pin (t+h)=Pin(t) (1-М)+Л+1. nWi+o(h). (8.3) Следовательно, при новая основная система принимает вид Рщ (f)+btPl+l, п (0. (8.4) 16*
484 Гл. XVI1, Стохастические процессы с непрерывным временем Эти уравнения называются обратными уравнениями, а уравнения (3.2) называются для различия прямыми уравнениями. Начальные условия имеют вид (8.2). (Интуитивно следовало бы ожидать, что Лп(0=0 при n<Zi, (8.5) однако существуют патологические исключения; см. пример 9, б).) В случае процесса размножения и гибели основные прямые урав- нения (при фиксированном i) имеют вид (5.2) — (5.3). То же рассуж- дение, которое привело к (8.4), приводит теперь к соответствующим обратным уравнениям Pin + (t)+^iPi + 1. п (t) + PiPi-i, п (О- (8.6) Должно быть ясно, что прямые и обратные уравнения не явля- ются независимыми друг от друга: решение обратных уравнений с начальными условиями (8.2) автоматически удовлетворяет прямым уравнениям, за исключением тех редких случаев, когда решение не единственно. Пример. Пуассоновский процесс. В § 2 мы интерпретировали вы- ражение Пуассона (2.4) как вероятность того, что на протяжении произвольного интервала времени длины t поступило ровно п вы- зовов. Будем говорить, что в момент времени t система находится в состоянии Еп, если за интервал времени от 0 до t поступило в точ- ности п вызовов. Переход из Ef в момент времени ti в состояние Еп в момент t2 означает, что между h и /2 поступило п—i вызовов. Это возможно лишь при n^i, и поэтому для переходных вероятностей пуассоновского процесса мы имеем Pin (0 = — если п> I, Pjn(t) = O, если n<.i. ' ‘ ' Они удовлетворяют прямым уравнениям P'in (0 = -М>,„ (t)+KPit (0, (8.8) а также обратным уравнениям P[n(t) = -KPin + (8.9) § 9. ПРОЦЕССЫ ОБЩЕГО ВИДА До сих пор наша теория ограничивалась процессами, в которых непосредственные переходы из состояния Еп возможны только в соседние состояния En+i и Еп,1. Кроме того, эти процессы были однородными по времени, т. е. переходные вероятности Pin(/) были одними и теми же для всех интервалов времени длины t. Теперь мы рассмотрим процессы более общего вида, в которых оба этих пред- положения опущены.
§ 9. Процессы общего вида 485 Как и в теории обычных цепей Маркова, мы допустим непосредст- венные переходы из любого состояния Et в любое состояние Еп. Переходные вероятности могут меняться с течением времени. Это вынуждает указывать для любого интервала времени оба его конца, а не только его длину. В соответствии с этим мы будем обозначать через Pin (т, t) условную вероятность того, что система в момент времени t находится в состоянии Еп при условии, что в предшест- вующий ему момент т состоянием системы было Eit Символ Pin (т, /) утрачивает смысл, если не выполняется условие т<Х Если процесс однороден по времени, то Ргп(т, /) зависит лишь от разности t—т, и вместо Pin (т, ?+/) (которое не зависит тогда от т) мы можем писать Лп(/). В § 1 мы видели, что переходные вероятности однородного по времени марковского процесса удовлетворяют уравнению Колмо- горова — Чэпмена Pin^ + t)^ Piv (s) Pvn (t). (9.1a) V Для неоднородных процессов аналогичное тождество имеет вид Pin (Ъ 0 = S Piv (т, $) Pvn (s, 0 (9-16) V и справедливо при т < s < t. Это соотношение выражает тот факт, что переход из состояния £z в момент времени т в состояние Еп в момент t происходит через некоторое состояние Ev в промежу- точный момент времени s, а для марковских процессов вероят- ность Pvn (s, t) перехода из Ev в Еп не зависит от предшествую- щего состояния Стало быть, переходные вероятности марковского процесса со счетным множеством состояний являются решениями уравнения Колмогорова — Чэпмена (9.16), удовлетворяющими до- полнительным условиям Р,*(т, /)>0, 0 = 1. (9.2) k Мы примем без доказательства тот факт, что и, обратно, каждое такое решение представляет собой переходные вероятности некото- рого марковского процесса х). Отсюда следует, что основная задача х) Понятие марковского процесса включает требование, чтобы при за- данном состоянии £v в момент времени $ развитие процесса до момента s не оказывало бы никакого влияния на его будущую эволюцию. Как было отме- чено в § 1, уравнение Колмогорова—Чэпмена отражает это требование лишь частично, поскольку в него входят лишь один момент т < s и один момент t > s. На остававшийся долгое время нерешенным вопрос о существовании немарковских процессов, переходные вероятности которых удовлетворяют (9.1), получен теперь утвердительный ответ; простейший из известных таких процессов однороден по времени и имеет лишь три возможных состояния/?/; см. Feller W., Ann. Math. Statist., SO (1959), 1252—1253. [См. также пример
486 Гл. XVII. Стохастические процессы с непрерывным временем теории марковских процессов состоит в нахождении всех решений уравнения Колмогорова — Чэпмена, удовлетворяющих условиям (9.2). Главная цель настоящего параграфа состоит в том, чтобы пока- зать, что постулаты процесса размножения и гибели допускают естественное обобщение, разрешающее произвольные непосредст- венные переходы E^Ej. Из этих постулатов мы выведем две систе- мы обыкновенных дифференциальных уравнений, которые будут названы соответственно прямыми и обратными уравнениями. При обычных обстоятельствах каждая из двух этих систем определяет переходные вероятности единственным образом. Прямые уравнения с вероятностной точки зрения являются более естественными, одна- ко, как ни странно, при их выводе требуются более сильные и менее интуитивно ясные предположения. В однородном по времени процессе размножения и гибели из § 5 исходные постулаты относились к поведению переходных вероят- ностей Pjh (h) при малых Л; там просто требовалось существование в нуле производных P'jk. В случае неоднородных процессов мы на- ложим те же условия на Pjk(t, t+x), рассматриваемые как функции от х. Эти производные будут иметь аналогичную вероятностную интерпретацию, однако теперь они будут функциями от t. Предположение 1. Каждому состоянию Еп соответствует не- прерывная функция си(/)^0, такая, что при h—>0 [i-Pnn(t, t + h)]/h-+cn(i)- (9.3) Предположение 2. Каждой, паре состояний Ej, Ek при j^=k соответствуют переходные вероятности pJk (t) (зависящие от времени), такие, что при h—>0 P/k(t, t + h)/h-^Cj(t)p/k(t), (9.4) Величины pjk (t) непрерывны no t, и для любых фиксированных t и j ^pJh(t) = ), Pjj(t)=o. (9.5) k Вероятностная интерпретация (9.3) очевидна: если в момент вре- мени t система находится в состоянии Еп, то вероятность того, что между t и t+h произойдет изменение, равна сп (t)h+o(h). Коэффи- циент pjk(t) можно интерпретировать как условную вероятность того, что если между t и t+h система меняет свое состояние Ej, то гл. XV, 13, е).— Перев.] Подобные процессы, однако, имеют довольно пато- логический характер, и их существование не противоречит тому утвержде- нию, что каждое решение уравнения Колмогорова — Чэпмена, удовлетворяю- щее (9.2), соответствует (единственным образом) некоторому марковскому процессу.
§ 9. Процессы общего вида 487 это изменение переводит систему из Е} в Ек. В процессе размноже- ния и гибели сп(0=^п+Нп, Pi, у+1(0=М^+и;), Pi, j--, (0=нЖ-+н>) (9.6) и pjk(t)—® для всех других комбинаций / и k. Для каждого фикси- рованного t величины pjk(t) можно интерпретировать как переход- ные вероятности цепи Маркова. Двух приведенных предположений достаточно для вывода си- стемы обратных уравнений для Р/к (т, I), однако для вывода прямых уравнений потребуется дополнительное предположение. Предположение 3. При фиксированном k переход к пределу в (9.4) равномерен по j. Необходимость этого предположения представляет значитель- ный теоретический интерес и будет обсуждаться нами несколько позже. Перейдем теперь к выводу дифференциальных уравнений для Pik(T, t) как функций от t и k (прямые уравнения). Из (9.1) имеем Pih(x, / + h) = SP17(T, t)P/k(t, t+h). (9.7) / Подставив вместо РЛЛ(/, t+h) в правой части его выражение из (9.3), мы получим t+h)—Pik t) _ h = -ck (0 pik (T, 0 +/1-1 2 Pif (T, 0 Pjk (t, t+h)+..., (9.8) i =£ k где опущенные члены стремятся к 0 вместе с ft, а суммирование про- водится по всем /, за исключением j=k. Применим теперь (9.4) к членам этой суммы. Поскольку (по предположению 3) переход к пределу равномерен по /, правая часть имеет предел. Следователь- но, левая часть также имеет предел, а это означает, что Р^(т, /) имеет частную производную по t и dPik (т, t)/dt = -ck (t) Pik (т, t) +2 p!} (T, t) Cj (t) pjk (t). (9.9) / Это основная система прямых дифференциальных уравнений. Здесь i и т фиксированы, так что мы имеем (несмотря на формальное появ- ление частной производной) систему обыкновенных дифференциаль- ных уравнений1) для функций Р^(т, t). Параметры i и т входят х) В стандартной форме имеющей вид 4 (0 = - ck(t) xk (/)+2 (t) CJ- (0 Pjk (0. /
488 Гл, XVII. Стохастические процессы с непрерывным временем р1кв> *) = { только в начальное условие 1 при k = i, (9.10) О в противном случае. v 7 Обратимся теперь к обратным уравнениям. В них постоянными остаются k и t, так что переходные вероятности Р^(т, t) рассматри- ваются как функции от начальных данных Et и т. При формулиров- ке наших исходных предположений эти начальные переменные были фиксированы, однако для вывода обратных уравнений пред- почтительнее сформулировать те же условия по отношению к ин- тервалу времени от t—h до t. Иначе говоря, естественнее начать со следующей альтернативной формы условий (9.3) и (9.4): [\-Pnn(t-h, t)]/h-+cn(t), (9.3а) Pjk (9.4a) Нетрудно доказать эквивалентность этих двух наборов условий (или представить их в единой форме), но мы удовлетворимся тем, что начнем с этой альтернативной формы. Замечательная черта последующего вывода состоит в том, что нам не понадобится ника- кого аналога предположения 3. Согласно уравнению Колмогорова—Чэпмена (9.16), Р/Й(т—h, i) = Piv (т—h,, t)Pv*(t, О» (9.Н) V и, используя (9.3а) при n = i, мы получаем = — С,.(т) Plk(x, + Piv(x—h, r)Pvk(x, 04-.... (9.12) v^i \ Здесь h~LPiV(x—h, t)—^c{(x) ptv (т), и переход к пределу в сумме в правой части (9.12) всегда равномерен. Действительно, если N > i, то У Piv (х—h, x)PV'?(x, 2 Ptv(x—1г, т) = v=W+l v=/V+l / N | ( N \ — h~l {1 — 2 piv (T—t) f —+ с, (t) •! 1 — 2 Piv(x) f. (9.13) ( v=0 ) ( v=0 / В силу условия (9.5) правая часть здесь может быть сделана сколь угодно малой за счет выбора достаточно большого N. Отсюда сле- дует, что в (9.12) возможен почленный переход к пределу, и мы получаем дРиМ> t)/dT = Ci(T:) Ptk(x, tj—Citx^pivtyPvke, О- (9.14)
§ 9, Процессы общего вида 489 Это и есть основные обратные дифференциальные уравнения. Здесь k и t фигурируют как фиксированные параметры, и поэтому (9.14) представляет собой систему обыкновенных дифференциальных уравнений. Параметры k и t входят лишь в начальные условия ( 1 при i = k, (9.15) ( 0 в противном случае. Пример, а) Обобщенный пуассоновский процесс. Рассмотрим случай, когда все ct (/) равны одной и той же постоянной, ct (/)==%, a pJk не зависят от t. В этом случае pjk являются переходными вероятностями обыкновенной цепи Маркова, и (как и в гл. XV) ее вероятности перехода за несколько шагов мы обозначим через р{$. Из Ci (t) = X следует, что вероятность осуществления перехода за время между t и t + h не зависит от состояния системы и равна Mi + o(h). Отсюда вытекает, что число переходов между т и t имеет распределение Пуассона с параметром k(t—т). При ус- ловии, что произошло ровно п переходов, (условная) вероятность перехода из j в k равна Следовательно, Ptk(x, Т)п/п!]р$ (9.16) п=0 (где, как обычно, р)’’= 1 и р$ =0 при /#=£). Легко проверить, что (9.16) действительно является решением обеих систем (9.9) и (9.14) дифференциальных уравнений и удовлетворяет нужным граничным условиям. В частности, если P;fe=0 при k<j, pjk=fk-f пРи k>i< (9.17) то (9.16) сводится к обобщенному распределению Пуассона (см. гл. XII, 2). ► Обе наши системы дифференциальных уравнений впервые были выведены А. Н. Колмогоровым в работе, в которой были развиты основания теории марковских процессов х). Предполагая, что по- следовательность коэффициентов cn(t) остается ограниченной при каждом t, В. Феллер показал, что существует единственное общее для обеих систем решение {Pjk (т, /)} и что это решение удовлетворя- ет уравнению Колмогорова — Чэпмена (9.16), а также условиям (9.2). Более того, в этом случае ни у одной из двух наших систем нет других решений, и поэтому эти системы по существу эквивалент- ны. Однако конкретные задачи вскоре привели уравнениям с не- ограниченными последовательностями {сп}, и, как показано в § 4, в таких случаях мы иногда сталкиваемся с неожиданными решения- х) Kolmogoroff A., Uber die anaiytischen Methoden in der Wahrscheinlichkeits- rechnung, Mathematische Annalen, 104 (1931), 415—458,
490 Гл. XVII. Стохастические процессы с непрерывным временем ми, для которых в соотношении (9.18) k имеет место строгое неравенство. Было показано г) (без каких-либо ограничений на коэффициенты что всегда существует мини- мальное решение /)}, удовлетворяющее обеим системам диф- ференциальных уравнений, а также уравнению Колмогорова — Чэпмена (9.16) и соотношению (9.18). Это решение называется ми- нимальным потому, что РЛ(Т, 0, (9.19) если Р;/1(т, t) удовлетворяет либо обратным, либо прямым диффе- ренциальным уравнениям (вместе с банальными начальными усло- виями (9.10)). Когда минимальное решение удовлетворяет (9.18) со знаком равенства при всех I, это означает, что ни у обратных, ни у прямых уравнений не может быть никаких имеющих вероят- ностный смысл решений, кроме Р7/1(т, t). Иначе говоря, когда ми- нимальное решение не имеет дефекта, наш процесс однозначно опре- деляется любой из двух этих систем уравнений. Как уже говори- лось выше, это имеет место тогда, когда для каждого фиксированно- го t коэффициенты cn(t) остаются ограниченными. Ситуация становится совершенно другой, когда минимальное решение дефектно, т. е. когда в (9.18) для некоторого (а потому и для любого) t имеет место знак неравенства. В этом случае сущест- вует бесконечное число настоящих переходных вероятностей, удовлетворяющих обратным уравнениям и уравнению Колмого- рова — Чэпмена, и, следовательно, существует бесконечно много марковских процессов, удовлетворяющих предположениям 1 и 2, лежащим в основе обратных уравнений. Некоторые из них могут удовлетворять также и прямым уравнениям, однако в остальных случаях решение прямых уравнений единственно * 2). *) Feller W., On the integro-differential equations of purely discontinuous Markoff processes, Trans. Amer. Math. Soc., 48 (1940), 488—515. В этой статье рас- сматриваются более общие пространства состояний, однако счетные пространства состояний упоминаются в ней как наиболее интересный частный случай. Это было не замечено последующими авторами, которые дали более сложные и менее пол- ные доказательства. Минимальное решение в однородном по времени случае полу- чается в гл. XIV, 7 тома 2 при помощи преобразований Лапласа. Более полное изложение см. в работе Feller W., On boundaries and lateral conditions for the Kol- mogorov differential equations, Ann. Math., 65 (1957), 527—570. 2) Напомним, что только предположения 1 и 2 имеют вероятностный смысл, тогда как предположение 3 носит чисто аналитический характер и было введено лишь для удобства. Оно не является естественным в том смысле, что даже не все решения прямых уравнений удовлетворяют наложенному условию равномерно- сти. Таким образом, обратные уравнения выражают имеющие вероятностный смысл условия и приводят к интересной теории, однако о прямых уравнениях этого сказать нельзя. Это объясняет, почему вся теория марковских процессов должна
§ 9. Процессы общего вида 491* Пример, б) Процесс размножения. Дифференциальные уравне- ния (3.2) для однородного по времени процесса размножения! имели вид (0 = (0» ^ (/) = (ty “И (0- (9.20) Это прямые уравнения. Поскольку они образуют рекуррентную, систему, их решение однозначно определяется начальными значе- ниями при / = 0. Стало быть, для переходных вероятностей мы: последовательно получаем Pik(t)~O при всех k < i, р..Ц) = е~Ч, = —(e-W—е~М), (9.21), Л/ Л/ + 1 и, наконец, при k > i Pik (0 = e~^p.t (t-s) ds. (9.22). 0 Для того чтобы увидеть, что эти переходные вероятности удов- летворяют уравнению Колмогорова — Чэпмена (9.1а), достаточно заметить, что при фиксированных i и s обе части этого уравнения представляют собой решения дифференциальных уравнений (9.20), имеющие одинаковые начальны? значения. Обратные уравнения были выведены в (8.4) и имеют вид + (9.23) Мы должны показать, что этому уравнению удовлетворяют Pih(t) при фиксированном k. При k<Zi это тривиально, ибо в этом случае все три члена в (9.23) обращаются в нуль. Используя (9.21), видим, что это утверждение справедливо также и при k—i=0 и k—i=l. Теперь мы можем продолжать доказательство по индукции, исполь- зуя тот факт, что при £>г-Ы t PikW^b-^e-^P’i (t-s) ds. (9.24), 0 Допустим, что Pik(f) удовлетворяет (9.23) при k—При k= =i+l+n мы можем выразить подынтегральное выражение в (9.24), используя правую часть (9.23), и получим в результате, что (9.23), справедливо и при k—f=n+l. Таким образом, мы доказали, что система переходных вероят- ностей Pih(t) однозначно определяется прямыми уравнениями и что. эти вероятности удовлетворяют обратным уравнениям, а также уравнению Колмогорова — Чэпмена. основываться на обратных уравнениях (или — в абстрактной формулировке —» на полугруппах преобразований функций, а не на вероятностных мерах).
492 Гл. XVII. Стохастические процессы с непрерывным временем Обратные уравнения (9.23) могут иметь и другие решения. Упо- минавшееся выше свойство минимальности (9.19) наших переход- ных вероятностей можно переформулировать следующим образом. Для произвольных неотрицательных решений уравнений (9.23) имеем: если «/,.(0) = Р,.й(0), то у{ (t) > Pik (t) (9.25) при всех t > 0. Здесь k произвольно, но фиксировано. Это ут- верждение тривиально для k < i, поскольку в этом случае правые части в (9.25) обращаются в нуль. Если yi+1 задано, то решение yt уравнения (9.23) может быть представлено в явном виде как интеграл, аналогичный (9.22), и теперь справедливость (9.25) доказывается рекуррентным образом при £ = &, k — 1, .... Предположим теперь, что В § 4 было показано, что в этом случае величины ^(0 = 1-2 Л* (0 (9.26) А* =0 не обращаются тождественно в нуль. Очевидно, (Z) можно интерпретировать как вероятность того, что при выходе из Et «бесконечность» достигается до момента времени t. Ясно также, что Ll являются решениями дифференциальных уравнений (9.23) с начальными условиями Lz(0)=0. Рассмотрим теперь произволь- ные неотрицательные функции Ak и определим t Pik (0 = Pik U) + $ Li ('-s) 4 (s) ds. (9.27) 0 Легко проверить, что при фиксированном k функции Pik (t) удовлетворяют обратным дифференциальным уравнениям и pik (0) = Pik (0). Встает вопрос о том, можно ли определить Ak (t) таким образом, чтобы Pik (/) были переходными вероятностями, удовлетворяющими уравнению Колмогорова—Чэпмена. Ответ на этот вопрос утвердительный. Мы воздержимся от доказательства этого утверждения, но приведем его вероятностную интерпретацию. Вероятности Р^(/) определяют так называемый процесс с погло- щающим экраном*, когда система достигает бесконечности, процесс останавливается. Дуб х) впервые исследовал процесс с возвращени- ем, в котором по достижении бесконечности система мгновенно воз- вращается в Ео (или в некоторое другое заранее заданное состоя- ние), и процесс начинается заново. В таком процессе система может перейти из Ео в Е5 либо за пять, либо за бесконечное число шагов, совершая один или несколько проходов от Ео до «бесконечности». l) Doob J. L., Markoff chains — denumerable case, Trans. Amer. Math. Soc., 58 (1945), 455—473,
§ 10. Задачи 493 Переходные вероятности этого процесса имеют вид (9.27). Они удов- летворяют обратным уравнениям (8.4) или (9.23), но не удовлетво- ряют прямым уравнениям (9.24) или (8.5). ► Этим объясняется, почему при выводе прямых уравнений мы были вынуждены ввести странное на первый взгляд предположение 3, которое не является необходимым для обратных уравнений: ин- туитивно понятные и имеющие простой вероятностный смысл пред- положения 1—2 совместимы с процессами с возвращением, для ко- торых прямые уравнения (9.24) не выполняются. Иначе говоря, если мы будем исходить из предположений 1—2, то обратные урав- нения Колмогорова будут выполнены, однако к прямым уравнениям нужно будет прибавить еще один член г). Конечно, пример с процессом чистого размножения слишком банален, чтобы быть действительно интересным, но описанная здесь ситуация типична и для наиболее общего случая уравнений Колмо- горова. Однако встречаются и два новых явления. Во-первых, у процесса размножения существует только один путь ухода на «бес- конечность», или, в абстрактной терминологии, одна граничная точка. В противоположность этому у общих процессов могут быть границы сложной топологической структуры. Во-вторых, в процес- се размножения движение направлено к границе, так как возможны лишь переходы En->En+i. Но можно построить процессы и другого типа; например, направление может быть изменено на противопо- ложное, и мы получим процесс, в котором будут возможны только переходы En+i-+En. Такой процесс может начинаться на границе, вместо того чтобы оканчиваться на ней. В процессе размножения и гибели, как и в одномерной диффузии, переходы возможны в обоих направлениях. Оказывается, что в этом случае существуют процессы, аналогичные процессам с упругими и отражающими экра- нами из теории диффузии, однако их описание вывело бы нас за рамки этой книги. § 10. ЗАДАЧИ 1. Пусть в процессе чистого размножения, определенного уравнением (3.2), коэффициенты > 0 при всех п. Доказать, что для каждого фикси- рованного 1 функция Pn(f) сперва возрастает, а затем убывает до 0. Если tn — точка ее максимума, то < t2 < t3 < .... Указание. Воспользоваться индукцией; продифференцировать (3.2). 2. Продолжение. Показать, что если Х/71 = 00, то tn—> оо. Указание. Если tn—> т, то при фиксированном t > т последовательность \nPn(t) воз- растает. Использовать (4.10). 3. Процесс Юла. Вывести среднее и дисперсию распределения, опреде- ленного уравнениями (3.4). (Использовать только эти дифференциальные' уравнения, а не явный вид решения (3.5).) *4. Процесс чистой гибели. Вывести дифференциальные уравнения процесса х) Дальнейшие подробности см. в гл. XIV, 8 тома 2,
494 Гл. XVII. Стохастические процессы с непрерывным временем типа Юла с переходами только из Еп в Найти распределение Pn(t), его среднее и дисперсию, предполагая, что начальным состоянием является 5. Стоянки автомашин. На автостоянку с числом мест N прибывают автомобили, образующие поток пуассоновского типа с интенсивностью X, до тех пор, пока имеются свободные места. Времена стоянки автомобилей имеют пуассоновское распределение (как и времена обслуживания в § 7). Вывести соответствующие дифференциальные уравнения для вероятностей Pn(t) того, что ровно п мест оказываются занятыми. 6. Различные дисциплины обслуживания. Рассмотрим очередь к одному каналу, подчиняющуюся правилам, приведенным в примере 7, б). На этот раз мы будем рассматривать процесс исключительно с точки зрения мистера Смита, чей вызов поступает в момент времени 0. Его время ожидания зави- сит от дисциплины обслуживания, а именно от того, в каком порядке обслу- живаются ожидающие вызовы. Наибольший интерес представляют следующие .дисциплины: а) последним прибыл—последним обслуживается, т. е. вызовы обслужи- ваются в порядке поступления; б) случайный порядок, т. е. члены очереди имеют равные вероятности быть обслуженными в первую очередь; в) последним прибыл—первым обслуживается, т. е. вызовы обслуживаются в порядке, обратном порядку поступления1). Удобно перенумеровать состояния, начиная с —1. На протяжении вре- мени действительного обслуживания мистера Смита система находится в со- стоянии Eq, а по истечении этого времени она переходит в Ев1, где и оста- ется навсегда. При система находится в состоянии Еп, если вызов мистера Смита все еще находится в очереди вместе с и—1 другими вызовами, которые будут (или могут быть) обслужены до него. (Обслуживаемый в этот момент вызов в очередь не включается.) Обозначим Рп (0 вероятность Еп в момент времени t. Доказать, что во всех трех случаях Р-i (0=фРо (О- Кроме того, а) при дисциплине последним прибыл—последним обслуживается б) при дисциплине со случайным порядком для п^2 Рп (0 = - (Ь+н) Рп (0 + ["Н/("+1)] Pn+i (0 + ^n-i (0, ₽; ft+н) Pi ю+(1/2) рр2 (о, р; (I) = - мА (0 + нА (0 + (V2) рР2 (t) + (1/3) ИР3 (/)+...; в) при дисциплине последним прибыл—первым обслуживается для п^2 Р'п (0=- (Х+н) Рп (О+нА+i (О + ^гх-1 ю. р; (о=-(ь+И) Pj (o+ixp2 (о, Pq (О = -цРо (0+|xPt (0. '(См. также задачу 20.) 7. Продолжение. Предположим, что действует дисциплина обслуживания последним прибыл — последним обслуживается (случай а)), и что Pr (0) = L Показать, что ___________ Pfe (0 = [(H0r-- k) I] е~^ 0^ k < r. г) Эта дисциплина имеет смысл в обрабатывающих информацию машинах, когда последняя информация (или наблюдение) имеет наибольший вес. Она была «предложена в работе Vaulot Е., Delais d’attente des appels telephoniques dans 1’or- dre inverse de leur arrivee, Comptes Rendues, Academie des Sciences, Paris, 238 (1954), 1188—1189.
§ 10. Задачи 495 8. П родолжение. Обобщить задачу 6 на случай а каналов. 9. Процесс Пойа1). Это нестационарный процесс чистого размножения, у которого зависят от времени: Х„(0 = (1+^)/(1+^). (Ю.О Показать, что решение, удовлетворяющее начальному условию Ро(О)=1, имеет вид Ро(() = (1+«О~1/а, Pn (t) ..(»+«) (1+2а)...{1 + (п-1)а} (я (1 +а0_п_1/а. (10.2) Показать (при помощи дифференциальных уравнений), что среднее и диспер- сия здесь равны t и £(14~я0 соответственно. 10. Продолжение, Процесс Пойа можно получить предельным переходом из урновой схемы Пойа (пример гл. V, 2, в)). Если состояние системы опре- деляется числом красных шаров, то вероятность перехода Е^—► при (п+О-м извлечении равна „ r+kC — ?+feY /10 Щ Pk.it nc l-t-ny’ где p = r/(r + b), y = c/(r+b). Пусть, как и при переходе от испытаний Бернулли к распределению Пуассона, интервалы между извлечениями шаров составляют h единиц вре- мени, и пусть h—► 0, п—>оо так, что пр—► t, пу—► at. Показать, что в пределе (10.3) приводит к (10.1). Показать также, что распределение Пойа (2.3) гл. V переходит в (10.2). 11. Линейный рост. Если в процессе, определенном уравнениями (5.7), к = ц и Pi (0) = 1, то Ро (0 = М/(1 + U), Pn (I) = (М)« -х/( 1 +М)"+1. (10.4) Вероятность окончательного вымирания равна 1. 12. Продолжение. Взяв в качестве пробного решения системы (5.7) функ- ции вида Pn(t) = A{t)Bn(t), доказать, что решение с Рх(0)=1 имеет вид Ро (0=1*5 (0, Pn(0 = {l-XS(/)}{l-[iS(/)}^S(/)}«-i (10.5) при В (t) = (1 ——Xe<b-i*><). (10.6) 13. Продолжение. Доказать, что производящая функция Р (s, 0 = 2Р» (0 s" удовлетворяет уравнению в частных производных dP/dt = {ii — (Х+р) s+Xs2} dP/ds. (10.7) 14. Продолжение. Пусть М2 (t) = 2 П^п (0 и М (0 = 2 П?п (0 (как и в § 5). Показать, что М2 (t) = 2 (X—р) М2 (/) + (Х + р) М (0. (10.8) Вывести отсюда, что при к > р дисперсия распределения [Рп (0} дается фор- мулой б2(Л-ц)/({1_ещ-Х) }(х + р1)/(Х—р). (10.9) 15. Доказать, что производящая функция Р (s, t) = ^Pn(t) sn для про- х) Lundberg О., On random processes and thek applications to sickness and accident statistics, Uppsala, 1940,
496 Гл. XVII. Стохастические процессы с непрерывным временем иесса (7.2) удовлетворяет уравнению в частных производных dP/dt— (1—s) { — XP + pdP/ds}, (10.10) решением которого является P(s, = -s) (1 При 1 = 0 это распределение Пуассона с параметром Х(1—При t—> оо распределение {Pn(t)} стремится к распределению Пуассона с параметром к/р. 16. Доказать, что производящая функция P(s) — ^\pnsn для стационар- ного состояния процесса, определенного уравнениями (7.26), удовлетворяет уравнению в частных производных (p + ks) dP/ds — akP, (10.11) которое имеет решение Р — {(p + Xs)/(X+p)}a. 17. Рассмотрим для дифференциальных уравнений (7.26) пробное реше- ние вида Рп (Л==(п)Л"(1-Л)а"" Доказать, что эти функции являются решением тогда и только тогда, когда Л=1Ш+Н)] (1— 18. Пусть в простейшей задаче© телефонных линиях (пример 7, a)) Qn (/) — вероятность, того, что, выходя из Еп, система достигнет состояния £0 до момента времени /. Доказать справедливость дифференциальных уравнений Сл(0 =—(Х-|-/?|х) Qn (/) +М?л+1 (O + ^PQw-i (0» п ^2, (Ю12) о;(о=-а+ц)<21(/4+xq2(0+p _ ’ } с начальными условиями Qn(0) = 0. 19. Продолжение. Рассмотреть ту же задачу для процесса, определяемого произвольной системой прямых уравнений. Показать, что тогда Qn (t) удов- летворяют соответствующим обратным уравнениям (при фиксированном k), в которых PQk (0 заменено на 1. 20. Показать, что дифференциальные уравнения из задачи 6 по существу представляют собой прямые уравнения для переходных вероятностей. Вывести соответствующие обратные уравнения. 21. Допустим, что решение хотя бы одной из двух систем /'прямых и обратных) уравнений единственно. Доказать, что переходные вероятности, удовлетворяющие этой системе, удовлетворяют уравнению Колмогорова — Чэпмена (1.1). Указание. Показать, что выражения, стоящие в обеих частях этого уравнения, удовлетворяют одной и той же системе дифференциальных уравнений с одинаковыми начальными условиями. 22. Пусть Pik(t) удовлетворяют уравнению Колмогорова — Чэпмена (1.1). Предполагая, что (/) > 0 и Sj (/) = SP/> (0 h доказать, что либо k Si (t) = 1 при всех /, либо S; (/) < 1 при всех t. 23. Эргодические свойства. Рассмотрим стационарный процесс с конечным числом состояний, т. е. предположим, что система дифференциальных урав- нений (9.9) конечна и что коэффициенты Cj и суть постоянные величины. Доказать, что решениями здесь являются линейные комбинации показатель- ных членов где действительная часть X отрицательна, если X 0. Вывести отсюда, что асимптотическое поведение переходных вероятностей такое же, как и в случае конечных цепей Маркова, за тем исключением, что периодический случай теперь невозможен,
ОТВЕТЫ К ЗАДАЧАМ Глава I 1. а) 3/5; б) 3/5; в) 3/10. 2. События Si, S2i Si U и SiS2 содержат 12, 12, 18 и 6 точек соответ- ственно. 4. Пространство элементарных событий содержит две точки ГГ и РР с вероятностями 1/4, две точки ГРР и РГГ с вероятностями 1/8 и вообще по две точки с вероятностями 2“л при п ^2. Сумма этих вероятностей равна единице, так что нет необходимости рассматривать возможность бесконечной серии бросаний. Искомые вероятности равны 15/16 и 2/3 со- ответственно. 9. Р{ДВ}=1/6, Р{Л U В} = 23/36, Р{ЛВ'}=1/3. 12. х = 0 в случае событий а), б) и ж); х—1 в случае событий д) и е); х = 2 в случае события г); х — 4 в случае события в). 15. а) А; б) АВ; в) ВU MQ. 16. Правильными являются соотношения в), г), д), е), з), и), л) и м). Соот- ношение а) бессмысленно, за исключением случая С CZ В. Вообще говоря, оно неверно даже и в этом случае, но будет правильным при дополни- тельных условиях CczB, АС = 0. Соотношение б) правильно в случае С Z) АВ. Соотношение ж) должно выглядеть так: (Л U В)— А=А'В. Наконец, правильным вариантом к) является л). 17. а) АВ'С; б) АВС; в) АВС; г) A (J В U С; д) АВ U AC (J ВС; е) АВ'С U А'ВС U А'В'С; ж) ABC U АВ'С U А'ВС=(АВ U AC (J ВС)— — АВС; з) А'В'С; и) (АВС)'. 18. A U В U С—A U (В —АВ) U {С—С (A U В)}=Д (J В A' U С А'В'. Глава 11 1. а) 263; б) 262-|-263 = 18 252; в) 262 + 2634-264. В городе с 20 000 жите- лями или некоторые люди имеют одинаковые инициалы, или по меньшей мере 1748 людей имеют более трех инициалов. 2. 2 (210 —1) = 2046. 3. п (п+ 1) 2 4. а) —; б) , 1 ... ' п п(п—1) п 2 5. <M = (W. <?B = (5/6)i2+12(5/6)ii.(l/6). 6. а) р1 = 0,01, />2 = 0,27, рз = 0,72; б) Р1 = 0,001, р2 = 0,063, />3 = 0,432, />4=0,504. 7. />г = (10)г 10~< Например, />3 = 0,72, рй — 0,00036288. Формула Стирлинга дает />10 = 0,0003598... . 8. а) (9/10)*; б) (9/10)*; в) (8/10)*; г) 2 (9/10)*—(8/10)*; д) АВ и A(JS. 9. ("\nln-*. 10. 9(12)-1=^. 11. Вероятность ровно г испытаний равна (я—У)г-11(п)г = п~1. 12. а) [ЬЗ-5-....(2п—1)]-1 = 2пп!/(2и)1; б) п![1.3..,..(2п-1)]-1 = 2» 17 № 221
498 13. 14. 15. 16. 17. 18. 19. 20. 21. 22. 23. 24. 25. 26. 27. 28. 29. 30. 31. 32. 33. 34. Ответы к задачам В предположении случайности вероятность того, что все двенадцать штрафов придутся на вторники или четверти, равна (2/7)12 = 0,0000003... . /7 \ Имеется лишь ( ) —21 пара дней, так что вероятность остается крайне малой даже для любых двух дней. Следовательно, разумно предположить, что полиция действует по системе. В предположении случайности вероятность события равна (6/7)12, или приблизительно 1/6. Никакого уверенного' заключения сделать нельзя. (90)1О/(Ю0)1о = 0,330476... . 25!(5!)~.55~2! = 0,00209... . 2 (и — 2)г (и — г— 1)!/п! = 2 (п— г— 1)/[и (п— 1)]. а) 1/216; б) 83/3888. Вероятности равны 1 — (5/6)4 = 0,517747... и 1 — (35/36)24 = 0,491404... . а) (п— N)r/(ti)r; б) (l—N/ri)r. При r = iV = 3 вероятности равны а) 0,911812...; б) 0,912673... . При r = 7V = 10 они равны а) 0,330476; б) 0,348678... . а) (1—^п)г-1; б) (n)Nr/((n)Ny. (1—2/п)2Г“2; для медианы приблизительно 2г + 1 = 0,7п. В предположении случайности вероятности того, что три или четыре тарелки разбиты а) одной девочкой, б) самой младшей девочкой, равны соответственно 13/64 » 0,2 и 13/256 « 0,05. (26—2) 12-6 = 0,00137. Ss РД 12-8» я 0,00035... . 2Ь6Ь \ 6 J «<£,-У 2,,-! •> (У G,”2,)2"-'©''- (N—3) (N—iyi f2N\if4N\~1 p~\n) \2NJ ~ _ /4 \ / 48 \ /39\ /26\ /52\-»/39Х-1/26\-i__ p~U Д13—*Д1зД 1зД 1з/ Ьз/ из/ _ /4 \ ( 48 \ /52\-1 “Uy!, 13—*Д13/ • См. задачу 29. Вероятность равна а) 24р (5, 4, 3, 1); б) 4р (4, 4 (У СУ (У (У (У /13\ / 39 \ /13—/п\ /264-тА /39\“1 \/пД13—тД п Д13 —пД1з/ U3/ ‘ /4 \ / 48 \ /52\-1 U/\26—лДгб/ ’ /13\/ 39 \ /13-а\ /26+а\ /13-а—/13+а+&\ \аД13—аД b Д13-&Д с Д 13—с )Х /52Х-1 /39\-1 /26\“* Д1з; уз/ \1з/ • ,4,1); в) 12р (4, 4,3,2). -1 . (См. задачу 33, где найдена вероятность того, что у одного игрока имеется а карт одной масти> д—другой и т. д.)
Ответы к задачам 499 85. Ро (г) = (52 - г)4/(52)4; Р1 (г) = 4г (52 - г)3/(52)4; р2(г)=6г (г—1) (52 —г)2/(52)4; Рз (г)=4г (г-1) (г-2) (52 —г)/(52)4; Pi = 36. Вероятности того, что времена ожидания первого, ... четвертого туза превосходят г, равны Wi (г) = Ра (г); 0 = Ро 0+и 01 ®з 0=Ро (0 + + Pi(r)+Pa(r); ш40 = 1—р4(г). Далее, (г) = Ш[ (г— 1)— wt (г). Медианы равны 9, 20, 33, 44. (ш4л(лн^г)т527Т Зв. (г|+;д1)('!+;г')- (rit5) (г.+1>. 41. (г£ + г2+г3)-/(^1 !г2!гз!)* 42. (49)4/(52)4. 43. Р{(7)} = 10-ю-? = 0,000001, 10; 7! . Р{(6, 1)} = 8!1!1! * "ПвГ’10"' = 0,000063, Р{(5, 2)} 10! ~ 81111! * _—ю-J 2151 = 0,000189, Р{(5, 1,1)} _ 10! — 7!2!1! * 71 ..10-7 111151 = 0,001512, Р{(4, 3)} _ 10? 7! -1Q-7 = 0,000315, 8! 111! 314! 10! 7! Р{(4,2,1)} ~7!1!1! ‘ — 10-7 1!2!4! = 0,007560, Р{(4, 1,1,1)} 10! Ю-7 1!1!1!4! = 0,017640, 613111 Р{(3, 3, 1)} __ 10! 7* 1Q-7 = 0,005040, 712!!! 11313! Р{(3, 2,2)} __ 10! 1Q-7 = 0,007560, 7!2!1? 21213! Р {(3,2, 1,1)} _ 10! . 71 Ю-' 7 =0,105840, 6!2!Ш! 1111213! Р{(3, 1, 1, 1, 1)} 10! IL—, io- •7=^0,105840, 5!4!1! 11U11113I Р{(2, 2,2, 1)} 10! 7*. ... -.10-7 = 0,052920, 61311! 1121212! Р{(2, 2, 1, 1 1)} 10! 7{ ю- 7 = 0,317520, 51312! 111111212! Р{(2, 1,1, 1,1,1)} __ 10! ю- 1!Ill 111112! -7 = 0,317520, 41511? Р{(1, 1,1, 1, 1, 1, 1)} = -12!-. 71 - 3!7! . ю-7 = 0,060480. 44. Пусть S, D, Т, Q означает, что в какой-то день родились один, два, три и четыре человека соответственно. Тогда P{22S} =-|^--365-22 =0,52430, PI20S+1O) -S-ет-»- -0,35208. р{!83+2О) =0,09695, 17*
500 Ответы к задачам *’i16S+3°i “згяа-тййга-365-” -°-0|«9- Р{19$+1Т} =2!gL. J^L.365-22 =0,00680, P{17S+lD+lT}=^-.-^|I-.365-22 =0,00336, O^tOJ 1/1 □! Qfiqi 99! ₽{14S + 4D} =354.пп^.365- = 0,00124, P{15S + 2D+1T} = ^-.—gl— -365-22 =0,00066, Ont I l Ю! Z1 Z1 O! P{18S+1Q} =|gL.I|?lf.365-22 =0,00009. (52\ 5 1=2 598 960. Вероятности равны a) 4/q; 6) 13 -12 - 4 .g - * = 1/4165; в) 13 -12-4 6 = 6/4165; r) 9.4*-q-l= = 768/216580; д) 13.(12).4-42-p-1 = 88/4165; e) (13) • 11.6-6-4-fl-i = = 198/4165; ж) 13-f^).6-4» •?-»= 1760/4165. Глава IV 1. 99/323. 2. 0,21... . 3. 1/4. 4. 7/2e. 5. 1/81 и 31/66. 6. Если Аь—событие, состоящее в том, что (k, k) не появится, то из (1.5) следует, что , C/35V /6\ Z34V , /6\ 733V /6\ 732V , с (31\г (30\г Рг~6\з&) (2) (зв/ + \з/ (зб/ \4/\зб/”^6\36/ \зб/’ 7., Положим р-1 = (f|) . Тогда Sf= 13 (^9 ) Pi S2= ( 23) (^) р\ S3 = = 4о(У*)р. Приближенные численные значения: Р[о1 = 0,09658; Р(1) = = 0,0341; РГ2] = 0,0001. — Ь-О(-4)' /г = 0 Л? / V X ( Ь} 9, ur= V1 (—1)* ( , )---Для доказательства того, что эти два \ " / п)г k =0 результата согласуются, использовать формулу (12.18) гл. II. 10. Общий член имеет вид а^а^* • •aNk^ где (kff k^)—перестановка (1, 2, ..., ^). Для диагонального элемента kv=v. ,2. k^0 14. Заметить, что по определению «г = 0 при г < п и un = nl sn/(tis)n. - (;=!)«?•
Ответы к задачам 501 •Предел равен V' (— 1)Л f п , 1 ( 1 —-ZL!. \ k j к п 6=0 16. k=2 (— \)m~k f т\ f k\r \k)\ 2) • 17. Воспользоваться тем, что j. Приближенные численные значения: Рго] = 0,264, Р(1] = 0,588, Р[2] = 0,146, Р[3] = 0,002. (52\ / 4\ /52___2k\ 13 ) ~ ) ( 13_2k ) ’ Приближенные чис- ленные значения: P[0J = 0,780217, Рг11 = 0,204606, РГ21 = 0,014845, Рг3] =» = 0,000330, Pf4J = 0,000002. 19. m!N!iim = £ i)k (N— m — k)l/k\. k=Q 20. См. формулу в ответе к задаче 21 при т = 2. 21. (rjV)!x = = ( 2 ) г2(гЛ, —2,1~( 3 ) ---«)1. 24. k =0 25. Воспользоваться формулами (12.16) и (12.4) гл. II. 26. Положить Uм= Ar U ... U &N и заметить, что С7дг+1 = U(J Лдг+| и UnAn+x = (Л1Л^+1) U ... U(Av4v+i)« Глава V 1. 1 —(5)3/(6)3= 1/2. 2. р= 1 — 1О-59/(610—510) = 0,61... . (35 \ / зд \ — 1 13М1з) =0,182... . Вероятность ровно одного туза равна 4 (12) (13) =0,411...; б) приближенно 1—0,182 — 0,411 = 0,407. . . Q (23\ (26\-i _11 _ /23\ /26Х-1 13 • d) 2 * * * * * * (10/ (1з) 50’ б) \12/\13/ ~50’ 6. 125/345; 140/345; 80/345. 7. 20/21. 9. (5/6)2. 10. 1 —(5/6)2. 12. р/(2—р). 13.6)3/5; в) 2« (1+2")-1. 14. г) Положим ап = хп — 4/7, Ьп — уп—1/7, = —2/7; тогда I «« 1 + 1 М + 1 сп | = (1/2) {| ап+11 + | д„+11 + | сп+11}. Следовательно, | ап | +1 Ьп | +1 сп | возрастает со скоростью геометрической прогрессии. 15. р=(1— pi) (1 — р2)...(1— рп). 16. Использовать неравенство 1—х < е~х при 0<х< 1 или разложение в ряд Тейлора функции log (1—х); см. формулу (12.26) гл. II. 18. (b + c)l(b + c+r). 19. Предположим, что утверждение справедливо для п-го извлечения при любых Ь, г и с. Рассматривая две возможности при первом извлечение находим, что вероятность черного шара в («+1)-м испытании равна b b-\-c г b _______________ b b^r* b + r+c ’ b + r ’ b +г+с””б + г’
502 Ответы к задачам 20. В предыдущей задаче устанавливается, что утверждение верно при т—\ и любом п. Для применения индукции рассмотреть две возможности в первом испытании. 23. Воспользоваться формулой (12.9) гл. II. 24. Биномиальный коэффициент в правой части является пределом первого множителя в числителе (8.2). Заметить, что (“Л <'+₽>- 26. В силу (5.2) 2v = 2p (1—р)^1/2. 28. a) w2; б) &2 + zw+^2/4; в) ц2 +(25щ>4-9у24-^+2поу)/16. 33. рц = Рз2==2/721== Р» Р12 = р33 = 2р23 = р» Р13~р31 — ®» р2Ъ~\1%' Глава VI 1. 5/16. 2. Вероятность равна 0,02804... . 3. (0,9)* 0,1, х^22, 4. qx «С 1/2 и (1 — 4р)*^1/2, где р=(^^ (52) Следовательно, х^=263 и х 66 соответственно. 5. 1 — (0,8)10—2 (0,8)9 = 0,6242... . 6. {1 —(0,8)10 —2(0,8)9}/{1 — (0,8)10} = 0,6993... . ’• (?) (?) (?)“-».«... и (^±-0,00952... . 8. (J22) {б-®—2-12-«}. 9. Истинные значения: 0,6651..., 0,40187.,, и 0,2009.,,; пуассоновские приближения: 1—е"1 = 0,6321..., 0,3679,., и 0,1839.,, . 10. е~2 2 2к/М =°>143... • п. e-J2 V*l = 0,080,.. . 4 3 12. е”*/100 <;0,05, или х^ЗОО. 13. е-1 = 0,3679..., 1— 2-е-1 = 0,264... . 14. е"*<0,01, х^5. 15. 1/р = 649 740. 16. 1 —где р = р(0; %) + ...+Р (^; ^)- 18. q3 при 6 = 0; pq3 при 6=1, 2, 3 и pq3—pq3 при 6 = 4. 19. f 2~2л = ^^) 2~2" « 1/]/"лп для больших п. л=0 4 а+ь-l z . .__ 20. у1, ( * j рЛ^а-Ь-1-л, Этот результат можно записать также k—a b- 1 Е/а+6—1\ ь I I qRt где 6-е слагаемое равно вероятности того, 6= о ' ' что а-й успех имеет место непосредственно после k^b—1 неудач. 21. ^=(2Л"дГ27г)-2-2лг+^1. N N 22. а) х= V, хг2~г~ 1 = |2-2ЛГ У, (2N Г) ; 6) Воспользоваться фор- Г = 1 Г = 1 мулой (12.6) гл. II. 23. 6/ « прь 612 « npi2; следовательно, п « 6162/612.
Ответы к задачам 503 24. (Пп ) • Sr-iYqs'-p(rn-St-...-Sr)f где Sz = „l+..,+nz. \ / \ / \ ПГ J 25. P = W72(Pi<72 + /Mi)-1- 31. Из разложения логарифма в ряд Тейлора следует, что b (0; п, p)=qn---(l—Х/п)п < е~к — р (0; %). Члены каждого распределения дают в сумме единицу, поэтому невоз- можно, чтобы все члены одного распределения были больше соответству- ющих членов другого. 32. Только конечное число членов распределения Пуассона превосходят е, а остальные члены оказываются больше соответствующих членов биномиаль- ного распределения. Глава VII 1. Действовать так же, как в § 1. 2. Воспользоваться формулой (1.7). 3. (—32/30) = 0,143... . 4. 0,99. 5. 511. 6. 66400. 7. Конечно. Из неравенств гл. VI следует, что вероятность превышения восьмикратного стандартного отклонения крайне мала. 8. (2лп)-1{р1р2(1— pi — р2)}-1/2. Глава VIII 1. (3 = 21. 2. х = + где «, у, w—решения системы и = pa~1-\-(qvJrrw) (1—ра”*)/(1 —р), V =(pu+rw)(l— q), w=pu + qv-\-rw=x. 3. и =pa~1 + (qv-]-rw) (1— ра“1)/(1— р), а =(ри + гда)(1 — 93-’.)/(1_9)1 w=(pu+qv) (1—r?-i)/(l —г). 4. Заметить, что Р {Ап} < (2р)", но Р{Л„} > l — (l_pn)2"/(2«) > 1_е(-2Р)"/(2«). Если р=1/2, то последняя величина имеет порядок 1/(2п), если р > 1/2, то Р {Д„} даже не стремится к нулю. Глава IX 1. Возможны комбинации (0, 0), (0, 1), (0, 2), (1, 0), (1, 1), (2, 0), (2, 1), (3, 0). Их вероятности равны 0,047539, 0,108883, 0,017850, 0,156364, 0,214197, 0,321295, 0,026775, 0,107098. 2. а) Совместное распределение задается (6хб)-матрицей. Главная диагональ состоит из элементов q, 2q, ..., 67, где <7=1/36. По одну сторону от главной диагонали все элементы равны нулю, пч другую все они равны q. б) Е(Х) = 7/2, Var (Х) = 35/12, Е (Y) = 161/36, Var (Y) = 2555/1296, Cov (X, Y) = 105/72. 3. Строки совместного распределения равны (перед всеми строками подразу- мевается множитель 32”*) для X, Y: (1, 0, 0, 0, 0, 0), (0, 5, 4, 3, 2, 1), (0, 0, 6, 6, 3, 0), (0, 0, 0, 1, 0, 0); для X, Z: (1, 0, 0, 0, 0, 0), (0, 5, 6, 1, 0, 0), (0, 0, 4, 6, 1, 0), (0, 0, 0, 3, 2, 0), (0, 0, 0, 0, 2, 0), (0, 0, 0, 0, 0, 1);
504 Ответы к задачам для Y, Z: (1, 0, 0, 0), (0, 5, 6, 1), (0, 4, 7, 0), (О, 3, 2, 0), (0, 2, О, 0), (О, 1, О, 0); распределение X + Y: (1, 0, 5, 4, 9, 8, 5), значения Х +Y меняются от 0 до 6; распределение XY: (1, 5, 4, 3, 8, 1, 6, О, 3, 1), значения XY меняются от О’ до 9. Е(Х)=5/2, E(Y) = 3/2, Е (Z) = 31/16, Var (X) =5/4, Var (Y) = 3/8, Var (Z) = = 303/256. 4. a) p/(l + q)', 6) 1/(1+q + ^); b) l/(l+<?)2. 8. Распределение Vn задается формулой (3.5), для U„ оно получается по» симметрии. 9. а) Р{Х^г, Y s} = Л/ ~п (г—$+1)" для r^s; D/Y_r v_a— (N~n{(r — «+>)"—2(r—s)n+(r — s— 1)«}, если r > s, гцл-г, если r=s. rn-i-ir-- l)n-2 6) *=—ip— > i < г и k < r; rn — 2 x = 0, если j > г или k > r. в) o2 « n7V2/[(n+ I)2 («4-2)]. 10. Вероятность того, что будет п двойных бросаний, равна 2pq (p2+g2)rt“b Математическое ожидание равно 1/(2рд). 12. P{N = n, К = k}— ^pn~k (qq')k-qp' для k^n\ P{N=n} = (l — qp')nqp'\ Р{К = Л}= (g/)A?p'^2 (— *) (~p}v = p'q'k- oo 13. E (7^7)=^^*.n/(«+1)=?Vfl' ^2 (1—-= =99'/(i—<?p')—?2p'«7(i—?p')2iog[i/(?p')]; E(K) = //p'; E(N) = (l-9p')/(9p'); Cov(K, N) = <z'/(9P'2), p(K. N)=K<?7(1-<?P'). 14. a) pft = p*? + ?*p; E (X)=pp-1 + <7p~1; Var (X)=p^-2 + flp-«—2. • 6) <7й = Р29а-1+?2Ра-1; P{X = /n, V = n}= pm+iqn-\-qm+'lpn c m, n^sl; E(Y) = 2; a2=2(p9-’ + <?p-i-l). 17. (" ) 364П~Л3651~П. 18. a) 365{1 —364«.365-«—n364n-i-365-"}; 6) nS&28. 19. а) |л = /г, о2=(/г—l)n; 6) p, = (n-|-1)/2, o2=(n2—1)/12. 20. E(X) = npi; Var (X) =прг (1 — рг); Cov (X, Y) =—npxp^. 21. — n/36. Это частный случай задачи 20. 26. а) 1—б) E(X) = /V{1—+ B)dE(X)/^ = O. 27. 2 0—Pj)n- Положить Ху= 1 или 0 в соответствии с тем, представлен или нет ;-й класс. 9Я F ZY)___ri(f24“0. Vnr ПН - Тг1г% (Г1 1)(г24"1) 28. Е (X) —, Var (X) .
Ответы к задачам 505 а>. Е(3„>=^; Var(S„) nbr (b + г -f- пс) (Ь+гУ(Ь+г+с) ' 331 Е (х) =г £ *-1 (г = |) Ргял-Г= 4 7 k = г ' 7 =Е (f)*+ (vP10gp- Чтобы вывести последнюю формулу из первой, положить f (q) == = < У, ~1 1)^*’ Используя формулу (12.4) гл. II, найти Г (q) =» = rqr~l (1—q)~r. Утверждение теперь доказывается повторным интегри- рованием по частям. Глава XI 1. sP (s) и Р (s2). 2. а) (1—s)-ip(s); б) (1—S)-1$P (s); в) {! — sP_(«)}/(! — s);_ г) POS-1 + {1-S-1P(S)}/(1-S); д) (1/2){P(/S) + P(-^S)}. 3. U (s) = p^s2/[(l—ps) (1 — gs)]. Математическое ожидание равно 1/(р<у); дис- персия равна (1—Зрб/)/(р2^2). 6. Производящая функция удовлетворяет квадратному уравнению A (s) = = A2 (s)-j-s. Поэтому А ($) — (1 /2) — (1/2) 1—4s и ап = п~1 • 10. а) (s) (s) | р — q\- б) (Dr(s)[l+F(s)+...+F* (s)] | р-q |. 11. a) (q/pY^(sy б) (Q/p)rO2r(s)(/(s). 12. Используя производящую функцию случайной величины Xv, имеющей гео- метрическое распределение, сразу получаем Рг(5) = 5г.^±±Г±...Л-^+1 . N_s N_2s ••• N—(r—\)s 13. Pr (s) 1) 4 = Pr_t (s) (N-r- 1) s. 14 P (s)—_____-___________—_______ ____________—_ * M (/V — l)sM — (M—2)s,,eM-~(M — r)s‘ 15. Sr является суммой г независимых случайных величин с общим геомет- рическим распределением. Поэтому V- 1 16. a) P{R = r}= J] P{Sr_f = fe}P{Xr^v—k} = fc=0 _£ ('+*-*) ('tlT2)’ fe=0 ' ' ' 7 E (R) = 1 + q^’lp, Var (R) = v<?/p2; 6) (W^2i~2y V=1 *
506 Ответы к задачам 17. Учесть, что 1 . 4-Sab-l= (! +s+ , ' t (1 4-s« + S2a+ ,.. + $<*-!> «). n „ /£____j \ 21, un = qn+ 2^1 2 )p39*"s«n-fe> где н0 = 1, Uf^q, u2 = q2, u3 = pa + q3, *=3 ' Используя тот факт, что это рекуррентное соотношение является соотно- шением типа свертки, получаем "«-T^+(Ss>u<!>- 22. un=pwn-i + qun-i, vn = Pun-i+qvn-i, wn = pVn-i+qWn-!. Поэтому H(s) —l=ps№(s) + <?sH(s), V(s)=/kI/(s)+</sV(s), №(s) =psV(s)+<?sr(s). Глава XIII 1. Достаточно показать, что если F(s) = l и s 1, то |s|^sl, причем ра- венство | s | = 1 возможно только в периодическом случае. 2. и2п s f 2~2n V ~ . Поэтому $ возвратно только при г=2, I \ п / J V (лп)г При г = 3 численное интегрирование методом касательных дает1) и-1= У u2„« (1//л«) ( [1//x3]dx = V(2/л)3 «1/2. п=1 3. поп~ }^6/(2лп)5. Поэтому и—1 к Г"б/(2п)5 х~6^ dx. Значит2), и ял 1/2 « 1,047 и / « 0,045. 4. uix+l)n—11^Р^П(1П’ Верхняя грань отношений последовательных членов меньше 1, если р Х/(Х +1). (Это утверждение следует также из закона больших чисел.) 6. Из оценки 2 А’+Р {^i > 0} «С 1 вывести, что f < 1, если Р {Хх > 0} 0. Если Р{Хх > 0} = 0, то все Х/^0 и либо происходит при первом испытание либо не происходит никогда. 7. Zn — min {/и: т^(п — N„)/r, т целое}. Далее, Е (ZJ ~ np/(g-j-pr), Var Zn~ npq (q + pr)-3. 8- ° (s)=T~i+^F+i • F <s) =Qs+psG (s)> Р=<Гг- 9. G (s)^ t , F(s) та же, что в задаче 8. 11. N,* « (N„-714,3)/22,75; 91 (2/3)—91 (-2/3) « 1/2. 12. rl) = r1 = r2=l, r„=rn-i — (l/4:) r„_2 + (l/8) r„_3, ^(s)==(8+2s2)(8—8s+2s2—s3)-1, rn ~ 1,444248 (1,139680)»-!. 14. Если an—вероятность появления Л-серии длины г при n-м испытании, то A (s) определяется формулой (7.5) с заменой р на а и q на 1—а, *) Подынтегральное выражение плохо приближает первые члены суммы, дающие в нее основной вклад. Более громоздкие вычисления показывают, что и — 1 ~ 0,393, и поэтому f—1 — « 0,282.— Прим, перев. 2) См. примечание к предыдущему ответу. Более точные значения! и « 1,0225 и / « 0,0220,— Прим, перев.
Ответы к задачам 507 Пусть В (s) и С (s) — соответствующие функции для В- и С-серий. Иско- мыми производящими функциями являются [(1—s) U (s)]-1, где в слу- чае a) [/(s) = A(s), в случае б) (J ($) = A (s)-}-B (s)— 1, в случае в) f/(s) = A(s)+B(s) + C(s)~2. 15. Скомбинировать методы, использованные в примере 8,6) и в решении задачи 14*. 16. Математическое ожидание для возраста k равно Npq&. 18. Wb(ri)=vn_krk, если п > k, и wk (п) = fik-tSk/rk-n, если /г<£. 19. Учесть, что 1—F (s) = (1—s) Q (s) и p, — Q(s) = (l—s) R (s), причем Q(l) = p,, 2Z?(1) = o2 —ц + рА Степенной ряд для Q“1(s) = 2 (ип~Uu~i)sn при s=l сходится. Глава XIV 1- ((qfp)b— l)/((q/p)a+b— 1) при р £ q и b/(a + b) при p = q. 3. При q < р число попаданий является дефектной случайной величиной. 4. Математическое ожидание числа попаданий равно р (1—<7i)/(Q7«—i) — = (plq)a- 5. Вероятность разорения по-прежнему задается формулой (2.4) при р = а(1— у)"1, q — 0(1—у)"1. Ожидаемая продолжительность игры равна Dz (1—у)-1, где Dz определяется по (3.4) или (3.5). 6. Граничные условия (2.2) заменяются условиями qQ— <3<?1 = 1—6, = Решению (2.4) соответствует решение _ {(<?/р)а —(<?/р)г}(1—6) Яг (9/p)«(l-d) + fi?/p-l ' Граничные условия (3.2) превращаются в Z)0 = 6L>i, Da = Q. 7. Соотношению (2.1) здесь соответствует уравнение qz — Pqz + z -^qqz-i* и qz = ^z будет частным решением последнего, если К — p№-\-q, т. е. если или Х2 + Х = ^р”х. Вероятность разорения равна ( 1, если q^2p, С1г I (V 1/4+^/р—1/2)2, если q<2p. 10. шг, ll+i (х)=ршг+]ftl (х) (*) с граничными условиями 1) и/0, „(*)= —Wa, п W — 0, 2) WZy 0 (х) = 0 при Z 7= X И WXf Q (х) = 1. 11. Заменить 1) на п'(х) = wi, п (х) и wa^ tl (х) = wa-lt п (х). 12. Граничное условие: иа, п = п. Производящая функция: (s)xr1/2 («)+%! (s)%r1/2 (s) _ ^’г-1/2 (5)+*Гг-1/2 (s) X“-1/2(s)+X“-1/2(s) Х.?-1/2 (s)+X“-1/2(s) 18. Р{М„<г}=2 (cA.-z,„-vx + z,n), P{M„ = z} = P{M„< г+1} —P{M„< г}. х= 1 19. Первое достижение х должно произойти в момент k^rt, и за последую- щие п—k шагов частица возвращается в х. 31. Соотношение (8.2) заменяется на а-1 Uz («) =S 2 Px-z + $rz. Х=1 Характеристическое уравнение имеет вид s рАо*=1. Глава XV 1. Р имеет строки (р, q, 0, 0), (0, 0, р, q)t (pt qt 0, 0) и (0, 0, р, q). При- п > 1 строки таковы: (р2, pqt pqt q2)>
508 Ответы к задачам 2. а) Цепь неприводима и эргодична; рр? —> 1/3 при всех /, k. (Заметим,, что Р дважды стохастическая.) б) Цепь имеет период 3, класс Go содержит Е± и Е2, состояние обра- зует класс Glt а Е3 — класс G2. Имеем u1 = u2=l/2, и3 = и4=1. - в) Состояния Ег и Е3 образуют замкнутое множество Si, а Е± и Е§—дру- гое замкнутое множество S2, тогда как Е2 невозвратно. Матрицы, соот- ветствующие замкнутым множествам, суть (2х2)-матрицы с элементами 1/2. Следовательно, рр? —► 1/2, если Ej и Е^ принадлежат одному и тому же Sr; р№—> 0; наконец, р{$—>1/2, если &=1, 3, и ► 0, если /г = 2, 4, 5- г) Цепь имеет период 3. Полагая а—(0, 0, 0, 1/3, 1/3, 1/3),. & = (1, 0, 0, 0, 0, 0), с = (0, 1/2, 1/2, 0, 0, 0), мы находим, что строки матриц Р- = Р^=... суть а, Ь, Ь, с, с, с, строки Р3 = Р6=... суть Ь, с, с, а, а, а, а строки Р = Р*= ... суть с, a, at b, b, Ь. 3- p'j? = (/76)п, p/fe’ = (й/6)«—((*—1)/6)« при k > j и Р/Т =0 при k < /. .4. х* = (3/4, 1/2, 1/4, 1/2), yft = (l/4, 1/2, 3/4, 1/2). 6. При j Производящая функция (qs)J (1—р$)“Л Математическое ожидание равно j/q п — 1 8. Состояния с четными номерами образуют неприводимое замкнутое мно- жество. Вероятность возвращения в не более чем за п шагов равна 1—П0-|-П0 (1—П2)+п01'2(1 —П4) + ...+ПоП2 ••• i’2n-2(l— V2n) = = 1 — W2U4 ... v2n. Поэтому состояния с четными номерами возвратны тогда и только тогда» когда последнее произведение стремится к 0. Вероятность того, что выходящая из Е2г + г система останется навсегда среди состояний с нечет- ными номерами (невозвратных состояний), равна v2r + iV2r + 3 .... в. ur=[i-p/q] (р/?)'-1[1-(р/?)Р]-1. 10. Возможные состояния £0...Ew. При / > 0 РЛ/-1 = /(Р—^+/)Р"2> Р/,/+1 = (р-/) (^—/)р~2, Pjj = i (^—/)Р"2 + (Р—/) (р~^+/)р“2, 13. 1 Я Р 0-0 ... О О1 0 0 1 о ... о о р= 0 О 0 1 ... о о 0 0 0 0 ... 0 1 q р 0 0 ... 0 0 । 14. Заметим, что матрица дважды стохастическая; использовать пример 7, з). 15. Положить pk> £ + 1=1 при /г=1, ..., N — 1 и pNk = pk. 16. 2 ujPjk — uk'> тогда U (s) = Uq(\ — s) Р (s) {Р (s)— s}-1. Для эргодичности необходимо и достаточно, чтобы р = Р'(1) < 1. По правилу Лопиталя (7 (l) = we (1—р), откуда = (1 —р)-1. 25. Если п^т—2t то величины X(w> и X(w) независимы и, следовательно^
Ответы к задачам 509 все три строки матрицы р/Т П) совпадают с распределением Х(л), а именно с (1/4, 1/2, 1/4). При n = m+l строки матрицы суть (1/2, 1/2, 0), (1/4, 1/2, 1/4), (0, 1/2, 1/2). Глава XVIJ 3. Е (X) = ieKl, Var (X) = ie^ (ekt — 1). 4. Р'п = — 'knPn + 'k (п-НИл+ь Рп (t) = ( e~iM (еи — l)z”n I), Е(Х) = й?-Ц Var (Х) = ^"Л/ (1— е-^). б. Рп (/) = - (%+пИ) Рп «) + М>п-1 (0 + (« +1) Л+1 (0 при п N - I и P^(0 = ~^Pjv(0+^-iW. 19. Обычный метод решения линейных дифференциальных уравнений приво- дит к системе линейных уравнений.
ИМЕННОЙ УКАЗАТЕЛЬ Андрэ (Andre D.) 90, 383 Банах (Banach S.) 182 Бартки (Bartky W.) 377, 378 Башелье (Bachelier L.) 368 Бейтс (Bates G. Е.) 299 Бернулли Д. (Bernoulli D.) 265, 392 Бернулли Я. (Bernoulli J.) 163, 265 Бернштейн (Bernstein S.) 144 Бертран (Bertrand J.) 87 Биллингсли (Billingsley Р.) 370 Большее Л. Н. 165, 172 Борель (Borel Е.) 218, 224 Брело (Brelot М.) 435 Буль (Boole J.) 42 Калашников В. В. 327 Кантелли (Cantelli F. Р.) 218 Кантор (Cantor G.) 351 Кардано (Cardano G.) 75 Кац (Кас М.) 5, 100, 139, 224, 392, 453 Кельвин (Kelwin W.) 91, 383 Кендалл (Kendall D. G.) 303, 309, 315, 472 Кинни (Kinney J. R.) 14 Кокс (Сох D. R.) 241, 320 Колмогоров А. Н. 23, 41, 222, 368, 389, 435, 477, 489 Крамер (Cramer Н.) 5, 21, 177 Крофт (Croft J.) 12 Кюль (Kuhl Р.) 12 Вальд (Wald А.) 63, 187, 208, 377, 378 Во (Waugh W. A. O’N.) 382 Гальтон (Galton F.) 88, 270, 309 Гейрингер (Geiringer Н.) 23 Гельфонд А. О. 358 Гнеденко Б. В. 89 Голдберг (Goldberg S.) 14 Голдман (Goldman J.) 11 Гончаров В. Л. 272 Гринвуд Дж. (Greenwood J. А.) 75, 423 Гринвуд Р. (Greenwood R. Е.) 79 Гуд (Good I.J.) 312, 315 Дарвин (Darwin Ch.) 88 Дёблпн (Doeblin W.) 429 Дерм ан (Derm an С.) 429 Домб (Domb С.) 315 Донскер (Donsker М.) 14, 370 Дорфман (Dorfman R.) 254 Дуб (Doob J. L.) 5, 14, 213, 435, 492 Ельяш (Elyash Е.) 14 Ермаков С, М, 40 Лагранж (Lagrange J. L.) 298, 367 Лаплас (Laplace Р. S.) 119, 142, 194, 97Я QQ9 Леви (Levy Р.) 100 Линдеберг (Lindeberg J. W.) 258 Литлвуд (Littlewood J. Е.) 204 Лотка (Lotka A. J.) 159, 309 Ляпунов А. М. 258 Мак-Дугал (McDougal Н.) 10 Мак-Кри (McCrea W. Н.) 374, 377 Максвелл (Maxwell С.) 91 Мальфатти (Malfatti) 392 Марбе (Marbe К.) 162 Марков А. А. 43, 258, 389 Мартин (Martin R. S.) 435 Махол (Machol R. Е.) 12 Мендель (Mendel G.) 150 де Мере (de Mere) 75 Мизес (von Mises R.) 22, 23, 53, 124, 164, 213, 218, 355 M’Кендрик (М’Kendrick A. G.) 465 Монтмор (Montmort Р. R.) 119 Моран (Moran Р. А. Р.) 186, 187 Муавр (Demoivre А.) 194, 278, 298 Мюнтцинг (Miintzing А.) 28
Именной указатель 511 Нейгебауэр (Neugebauer О. Е.) 10 Нейман (von Neyman J.) 181, 299 Нелсон (Nelson Е.) 115 Ньюмен (Newman D. J.) 224, 382 Ньютон (Newton I.) 74 Харди (Hardy G. Н.) 154, 224 Харрис (Harris Т. Е.) 311, 349, 442 Хаусдорф (Hausdorff F.) 216, 224 Хинчин А. Я. 23, 31, 209, 219, 224, 257 Хоффман (Hoffman W.) 14 Орей (Orey S.) 429 Пальм (Palm C.) 475, 476, 478 Паскаль (Pascal B.) 75 Пипс (Pepys S.) 74 Пирсон (Pearson K.) 189, 270 Питт (Pitt L.) 11 Пойа (Polia G.) 137, 239, 296, 374 Поллард (Pollard H.) 326 Пуассон (Poisson S. D.) 170 Чандрасекар (Chandrasekhar S.) 440 Чебышев П. Л. 248 Чжун Кайлай (Chung К. L.) 14, 100, 256, 326, 429 Ширяев А. Н. 378 Шредингер (Schroedinger Е.) 308 Штейнгауз (Steinhaus Н.) 182 Шухарт (Shewhart W, А.) 6В Райт (Wright S.) 394 Рафф (Raff M. S.) 254 Риордан (Riordan J.) 14 Роббинс (Robbins H. E.) 72 Романовский В. И. 443 Рыбников К. А. 46 Эллис (Ellis R. Е.) 367 Эрдёш (Erdos Р.) 100, 225, 326 Эренфест П. (Ehrenfest Р.) 139, 392 Эренфест Т. (Ehrenfest Т.) 139, 392 Эрланг (Erlang А. К.) 476 Юл (Yule G. U.) 465 Сачков В. Н. 46 Севастьянов Б. А. 311 Смирнов Н. В. 89, 165 Смит (Smith W.) 320 Спарре Андерсен (Sparre Andersen Е.) 100 Стюарт (Stuart Е. Е.) 75, 423 Adler Н. А. 482 Bailey N. Т. J. 65 Barton D. Е. 87 Blackwell D. 96 Bottema О. 297 Brockmeyer Е. 476 Такач (Takacs L.) 87 Торндайк (Thorndike F,) 178 Уиппл (Whipple F. J. W.) 374, 377 Уитворт (Whitworth W. А.) 46, 78, 87 Catcheside D. G. 75, 130, 178, 302 Chadwick J. 177 Chapman D. G. 65 Clarke R. D. 177 Cochran W. G. 63 Феллер (Feller W.) 5, 73, 100, 225, 235, 263, 266, 269, 272, 307, 326, 336, 423, 435, 465, 470, 485, 489, 490 Фишер (Fisher R. А.) 22, 66, 166, 309, 394 Фрай (Fry Т. С.) 476 Фрейм (Frame J.S.) 382 Фреше (Frechet М.) 117, 129, 389 Фридман (Friedman В.) 137, 139, 392 Фэрри (Furry W. Н.) 465 Фюрт (Fiirth R. А.) 435 Dahlberg G. 158 Deuel P. 96 Dubbins L. E. 360 Eggenberger F. 137 Eisenhart C. 62 Ellis C. 177 Ferguson T. S. 252 Finucan H. M. 48, 254 Freedman D, 96
512 Именной указатель Groll Р. А. 254 Gumbel E.J. 173 Panse V. G. 167 Pathria R. K. 52 Hadland S. А. 241 Halstrom Н. L. 476 Hodges J. L. 87 Hoeffding W. 246 Reuter G. E. 470 Romig H. C. 165 Rutherford E. 177 Ingold С. T. 241 Sacks L. 162 Savage L. J. 21, 360 Schell E. D. 74 Jensen A. 476 Schensted I. V. 393 Shanks D. 52 Smith B. 171 Karlin S. 470 Kendall M. G. 171 Koopman B. 0. 21 Sobel M. 254 Stirling J. 71 Stoneham R. G. 52 Sukhatme P. V. 166 Swed F. S. 62 Lea D. E. 130, 178 Ledermann W. 470 Li С. C. 162 Lundberg 0. 495 Thoday J.M. 130, 178 Todhunter I. 392 Malecot G. 394 Uhlenbeck G. E. 392 Mallows C. L. 87 Margenau H. 61 McGregor J. L. 470 Miller K. W. 482 Ming Chen Wang 392 Molina E. C. 172, 205 Mood A. M. 208 Murphy G. M, 61 Van Veen S. C. 297 Vaulot E. 494 Watson G. S. 254 Wisniewski T. К. M. 253 Wolfowitz J. 63, 208 Ore 0. 75 Wrench J.W., Jr. 52
ПРЕДМЕТНЫЙ УКАЗАТЕЛЬ Аварии, урновые модели 137, 139 Автомобильные катастрофы, распре- деление Пуассона 175, 306 Азартные игры 358 и д. -----«безобидные» 262 и д. --------разорительные 263, 266, 276 ----- задача о разорении см. Задача о разорении -----с бесконечным математическим ожиданием выигрыша 260, 265 и д., 336—337 --------тремя участниками, играю- щими по очереди 36, 43—44, 136, 159—160 ----- серии 210, 224—225 -----системы (стратегии) 212—215, 359 -----эффект изменения ставки 360 и д. Азбука Морзе 74 Аллели 151 Алфавиты 147—148 Арксинуса закон для броуновского движения 100 -------- времени пребывания 100 --------положения максимума при случайном блуждании 112 -------- попаданий последних 97 -------- попадания первого в конеч- ную точку 112 — распределение дискретное поряд- ка п 97 Банаха задача о спичечных коробках 182, 186, 252 Безгранично делимая производящая функция 304 — —--------разложение в произведе- ние 305 — делимые распределения 304 Безопасности служба 139 Безусловные (абсолютные) вероят- ности 133—134 --------в цепях Маркова 376 Бейеса формула 142 Бернулли испытания см. Испытания Бернулли Бернулли — Лапласа урновая модель 392—393 ----------- инвариантное распреде- ление 413 -----------обобщение 440 Бета-функция 189 Биллиард 297 Бинома Ньютона формула 71 Биномиальное распределение 56, 164 и д. -----в задачах о размещении 55—56, 127 --------модели Эренфестов 412 -----дисперсия 243, 245 — — интегральное представление 189, 383, 385 -----как предел для гипергеометри- ческого распределения 78, 188 -------- условное распределение для распределения Пуассона 252 — — максимальная вероятность 167—168, 194, 198 -----математическое ожидание 233 -----нормальное приближение 194 и д. -----отрицательное см. Отрица- тельное биномиальное распределе- ние ----- оценка «хвостов» 168 -----приближение Пуассона 170 и д., 187—188, 204 -----------(числовые примеры) 127, 171 -----производящая функция 281— 282 ----- свертка 189 -----смесь с распределением Пуас- сона 187 Биномиальные коэффициенты 54, 70 и д., 139 -----задачи и тождества 81—84, 115 Биологические популяции, отлов 65, 186—187, 253, 302, 315 «Благоприятные случаи» 42, 46
514 Предметный указатель Бозе — Эйнштейна статистика (рас- пределение) 22, 39, 40, 60—62, 79, 131 -----------предельный переход к отрицательному биномиальному распределению 80 Больцмана распределение 22. См, так- же Максвелла — Больцмана ста- тистика (распределение) Больших чисел закон 257 и д., 266, 268 --------для испытаний Бернулли 169, 209 ----------- перестановок 271 ,----------случайных величин, не имеющих математического ожида- ния 260, 266 --------обобщенный 266, 276 --------усиленный 273 и д., 276 -----------для зависимых случай- ных величин 276 --------------испытаний Бернулли 217 Бонферрони неравенства 129, 160 Бореля — Кантелли лемма 215 и д. Бридж, времена ожидания 76 — задачи и примеры 47, 55, 57—58, 67, 76—77, 119, 130—131, 159, 185 — определение 25 — распределение тузов 28, 35, 44, 76 Бросание костей, данные Уэлдона 165—166 ----- дисперсия числа очков 243, 258 -----задача Ньютона — Пипса 74 -----как задача о размещении 28 -----одинаковые суммарные числа появлений единиц, двоек, 353 -----парадокс де Мере 75 -----производящая функция 296 ----- серии единиц 224, 338 -----эксперименты статистические 165 — монет нескольких, ничьи 330, 353 — монеты 28, 30, 43 -----как задача о размещении 68 --------случайное блуждание 89, 357 -----распределение лидерства 97, 100—101, 105 -----эксперимент 40, 99—102, 105— 107 Броуновское движение см. Диффузия Буля неравенство 42 Бэра функция 475 b (k\ п, р) 165 Вакцин и сывороток проверка 167 Вероятности перехода для цепи Мар- кова 388. См. также Переходные вероятности в цепях Маркова ------------ — за несколько шагов 397 Вероятность статистическая (физиче- ская) 20 — условная 132 и д. Ветвящиеся процессы 308 и д., 387 -----потомки в них 308 ----- потомков число 310 -----общее 312 и д. -----с двумя типами частиц 316 Винеровский процесс 368 Возвратное рекуррентное событие 324 --------предельная теорема 305 — состояние в цепи Маркова 403 Возвращение в начало в дву- и трех- мерном пространстве 374 -------- как рекуррентное событие 328 --------первое 93—98, 287 •-------по отрицательным значени- ям 328 --------предельная теорема 109, 374 --------при испытаниях Бернулли и случайном блуждании 93, 284 --------производная функция 287 --------п.е 109, 288 Возвращений в начало число 115 Возраста распределение в теории вос- становления 348, 349, 354 Восстановление устройств и совокуп- ностей 325, 348, 349, 354, 395 Восстановления метод для случайного блуждания 384—385 — теорема 344 — теория 343, 345 Время возвращения в цепях Маркова 402—403 ----- для серий 338 — обслуживания 473 -----показательное 473 и д. -----суммарное 302 — ожидания в комбинаторных зада- чах 67 -----для рекуррентных событий 323, 332 -----затраченное 396 -----остаточное 346, 395 -----при выборе 239, 253 --------отсутствии памяти 342, 474 — первого достижения в диффузии 383 -----------цепях Маркова 402 -----------случайном блуждании 108, 284, 288 -----------------предельная тео- рема 108 -----------------формулы для ве- роятности 108, 288, 366, 367, 383
Предметный указатель 515 ----прохождения в диффузии 383 — пребывания 100, 468 Входной поток пуассоновского типа 474 Выбор без возвращения 48, 77—78, 150, 232, 247 — по группам 254 — с возвращением 48, 77—78 — случайный 50 Выбора принцип 350 Выборка из неоднородной совокуп- ности 254 — случайная 50 — случайного объема 230 — требуемый объем 203—204, 208, 259 — упорядоченная 48 и д. — элементарные задачи 28, 30, 75, 134—135 Выводок насекомых и его выживание 187, 302 Выживание в ветвящихся процессах 308—309 Вымирание в процессах размножения и гибели 472 — генов 154, 158, 309, 394, 415 — фамилии 309 Вырождение ветвящегося процесса 310 и д. --------с двумя типами частиц 316 Галыпона ранговый критерий 87—88 113 Гамеля уравнение 475 Гамма-функция 83—84 Гауссовское распределение 194. См. также Нормальное распределение Генеральная совокупность 48, 54 и д. ---- неоднородная 135—136 Генетика 150 и д. — и ветвящиеся процессы 309 ----цепи Маркова 393—394, 415 — клеточная, примеры 393, 415 Гены 28, 151 ид. — доминантные 151 — и генотипы 28, 151 ид. --------наследственность 270 ----мутации 309 — изменение 153—154, 394, 415 — рецессивные 151 ----сцепленные с полом 157 Геометрический ряд 71 Геометрическое распределение 230, 252, 324 ----для размера семей 159, 309 ----как предел статистики Бозе — Эйнштейна 80 --------частный случай отрицатель- ного биномиального распределе- ния 182, 238 -----отсутствие последействия 474 -----переход к показательному рас- пределению 474 -----производящая функция 282 ----- свертка 283 Гетерозиготы 151 Гибели чистой процесс 493—494 Гибриды 151 Г ипергеометр ическое р аспределен ие 63 и д., 82, 247 -----как предел в модели Бер- нулли — Лапласа 413 -----моменты 247 -----обобщение 67 -----предельная теорема 77 -----приближение распределением биномиальным 78 -----------нормальным 208 -----------Пуассона 188 Гипотез вероятности 142 Гипотеза для условной вероятности 133 Гипотезы статистические см. Крите- рии статистические Гомозиготы 151 Граница-вход для цепей Маркова 435 Граница-выход для цепей Маркова 432, 435 Границы для цепей Маркова 429 и д. Группировка состояний в цепи Мар- кова 442 Группировки критерий 63 Дальтонизм как признак, сцепленный с полом 157 Дальтоники, распределение Пуассо- на 186 Дважды стохастическая матрица 414 Двойное отрицательное биномиаль- ное распределение 299 Двойные производящие функции 292, 354 Двойственное случайное блуждание 111 --------времена первого достиже- ния 111 Деление клеточное 393 Десятичных знаков распределение для е 52, 79 -----------л 52, 79 -------- закон повторного логариф- ма 223 Детерминант (число слагаемых, со- держащих диагональные элементы) 130 Дефектные изделия, пуассоновское приближение 172
516 Предметный указатель Дефектные изделия элементарные за- дачи 75, 159 — (несобственные) случайные вели- чины 286, 323 Дефектов распределение в материа- лах 176, 186 Диагональный метод Кантора 351 Дискретные пространства элементар- ных событий 35 и д. Дисперсия 242 и д. — выраженная через производящие - функции 280 — нормального распределения 194 Диффузия 366, 383 — при наличии центральной силы 392 — уравнение 372 Дни рождения как задача о размеще- нии 27, 67, 121 — — комбинаторные задачи 76—78, 185, 253 — — одинаковые 53, 124 --------таблицы для 499—500 -----ожидаемое число 239 -----распределение Пуассона 124, 171 Доверительный уровень 204 £ для рекуррентных событий 317, 322 Задача о баллотировке 87. См, также Теорема о баллотировке — — домино 74 ----- инициалах 74 -----ключе 68, 74, 159, 253 -----конкуренции 202—203 — — лифте 28, 53, 77, 499 — — размещении 58 и д., 78 и д., 120 и д., 255 --------времена ожидания 67 и д., 239 -------- заполнения числа 58 --------и цепь Маркова 393, 450 —-------отрицательное биномиаль- ное распределение как предел 80 —.------распределение Пуассона как предел 78, 105 —-------с ящиками, содержащими несколько шаров 58—60, 78, 131 -----разорении 114, 356, 358 и д. -----— метод восстановления 384 -----— при обобщенном случай- ном блуждании 377 и д. --------продолжительность игры 363 — — — с возможностью ничьей 382 -----расстановке ладей на шахмат- ной доске 130 1---сенаторах 55, 64 ----снабжении энергией 166—167,. 482 ----телефонных линиях 205, 475, 496 ----уличном движении 186, 438 Задачи обслуживания 475 и д., 494 Закон арксинуса см. Арксинуса закон — больших чисел см. Больших чисел. закон — малых чисел 176 — следования Лапласа 141 Заражение 63, 137, 138, 140, 141 — ложное 139, 140 Звезды, распределение Пуассона 176,- 186 И зинга модель 63 Изюминок распределение 173, 186 Имитация симметричной монеты 253 Инвариантности принцип 370 Инвариантные меры в цепях Маркова 423 и д. — (стационарные) распределения в цепях Маркова 407 и д. — --------------периодических 421 Инверсии в перестановках 271 Инерции момент 243 Испытания Бернулли, бесконечные последовательности 210 и д. — — интерпретация на языке тео- рии чисел 223 и д. — — определение 163 ----с переменными вероятностями 232, 245, 295 — — связь с рекуррентными собы- тиями 327 и д., 353 — — сложные 185, 187, 252 — повторные 146 — — представление через случай- ные величины 231 — последовательные 187 Карт совпадение 125 и д. — — кратное 131 ----сложное 131 — тасование 421 ид. — — сложное 438—439 Классификация по многим призна- кам 47 Книги, написанные при помощи броса- ния монеты 217 Ковариация 244 и д., 250 Колмогорова критерий 273 ----обращение 277 — неравенство 249 Колмогорова — Смирнова типа крите- - рий 88—89
Предметный указатель 517 Колмогорова — Чэпмена уравнение 397 --------для немарковских процессов 439 -----------стохастических процес- сов 460, 485 и д., 496 -----------цепей Маркова 397, 437 --------минимальное решение 490 Контроль выборочный 185, 252, 253 — качества продукции 63 — многовыборочная схема 378 Координаты и координатные простран- ства 148 Кости несимметричные 166 Коэффициент корреляции 250 — обслуживания 478 — простоя для рабочих 481 -------- станков 481 Коэффициенты полиномиальные 57 Критерии статистические 167. См. так- же Проверка ----группировки 62—63 ---- однородности 63 ----перемешивания 62—63 ----случайности 63, 74—76, 79 Критерий неприводимости цепи Мар- кова 399 Крови анализ 254 — клеток подсчет 180 Кронекера символы 443 Купонов собирание 28, 130 ----время ожидания 68, 239, 253— 254 Лапласа закон следования 141 Левши 185 Лестничные величины 319, 329 — точки сильные 112 ----слабые 112 Лидерство при случайных блужда- ниях, продолжительность 96 и д. -----------распределение 96 и д., ИЗ ------------- результат экспери- мента 105 и д. Линейный рост совокупности 471, 495 Логарифмическое распределение 305 Ложное заражение 139—140 Лучи космические 28, 303, 466 Макроскопическое равновесие 409 и д., 471 Максвелла — Больцмана статистика (распределение) 40, 59, 61, 62 — — — — как предел статистики Ферми — Дирака 78 Максимального правдоподобия оценка 66 Максимум пути при случайном блуж- дании 107 Максимумы при случайном блужда- нии, положения ПО и д. —-------— — закон арксинуса 112—113 ----------распределение 383—384 Малых чисел закон 176 Маргинальное распределение 228 Маркова цепи 386 ид. ----безусловные вероятности 398 ----г бесконечные 441 ----в теории массового обслужива- ния 441 :---времена возвращения 402—403 ----границы 429 и д., 493 —- — группировка состояний 442 ----и задача о размещении 393, 450 --------урновые модели 387 ----Колмогорова — Чэпмена урав- нение 397, 437 ----меры инвариантные 423 и д._ ----неприводимые 399, 405 ----обращение 429 и д. ----разложение 405 и д. ----решение максимальное 416 —-------минимальное 418 ---- с упругим экраном 391 —.— смесь 442 ----состояния системы 388, 461 --------— возвратные 403 ----------классификация 401 ид. —---------невозвратные 401, 404,. 414 и д. ----------несущественные 403 ----------нулевые 403 ----------поглощающие 399, 400 ----------положительные 403 ---------- эргодические 403 — — эргодические 407 Марковские процессы 435 и д. ----с непрерывным временем 459 и д., 484 и д. ----суперпозиция 438 и д. Марковское свойство 343, 437 Мартингалы 414 Математическое ожидание 235 и д. ---- бесконечное 279 ----выраженное через производя- щие функции 279 ----отношения 256 ----произведения 237 ---- суммы 236 ---- условное 237 Матрица, канонический вид 443 — стохастическая 389 — — дважды 414 — субстохастическая 415 Медиана распределения 69, 235
518 Предметный указатель Мер произведение 149 Мера равномерная 424 Множеств произведение декартово 146 ----- прямое 146 Множество замкнутое состояний в це- пях Маркова 398 и д. — цилиндрическое 148 Многоугольника разбиение 296—297 Моменты 242 — бесконечные 260, 279 -----предельные теоремы 266—267, 276, 328, 336 — производящие функции 298, 299 Муавра — Лапласа предельная тео- рема 197 и д. ---------- применение к случай- ным блужданиям 371 Мутации 309 И — обозначение неудачи 163 Наследственность 150 и д., 261 Настольный теннис 183 Невозвратные состояния 401, 404, 414 и д. Независимость стохастическая 143 и д., 230—232, 256 ----- попарная, но не взаимная 144—145, 161, 234—235 Независимые испытания 146 и д. • — приращения 306—307 — эксперименты 149 Немарковские процессы 437, 442 -----удовлетворяющие уравнению Колмогорова — Чэпмена 439, 485 Непрерывности теорема 294 Неприводимые цепи Маркова 399, 405 и д. Неразличимые элементы в задачах о размещении и упорядочении 58 и д., 77 ----------------------элементарные примеры 29, 39, 56 Неразрывности уравнение 372 Несмещенная оценка 256 Несчастные случаи как пример зада- чи о размещении 27 Ничьи в биллиарде 297 — при бросании нескольких монет 330, 353 Нормальная функция распределения 190 --------оценки «хвостов» 192, 207 Нормального распределения плот- ность 190 Нормальное приближение для бино- миального распределения 94, 194 и д. ------------большие отклонения 206 и д., 209 -------времени возвращения в на- чало 109 ----------первого достижения 108— 109 -------гипергеометрического рас- пределения 208 -------распределения Пуассона 204, 208, 259 -------реКуррентНых событий 336 -------серий в комбинаторных зада- чах 208 ---------- успехов 338 -------триномиального распределе- ния 208 -------числа перемен знака при слу- чайном блуждании 104 Нормированные случайные величины 244 («)г 49 П и $ 190 Облучения эффекты 28, 75, 178, 301— 302 Обобщенное распределение Пуассона 293, 301, 302 и д„ 489 Обобщенный пуассоновский процесс 489 Обратные уравнения 372, 482 и д., 489, 496 Обращение критерия Колмогорова 277 — усиленного закона больших чисел 277 Обращенные вероятности в цепях Маркова 430 — цепи Маркова 429 и д. Обслуживание станков 478 и д. Обслуживания времена 473 — дисциплины 494 — задачи 475 и д., 494 — коэффициент 478 Объединение событий 33—34 --- вероятность 118 Одновременное осуществление собы- тий 33, 116, 124—125, 128, 160 Однородности проверка 63 Однородный по времени процесс 307 Опечатки 29 — оценка числа 186 — распределение Пуассона 173, 185 — статистика Ферми — Дирака 62, 77 Осреднение повторное 347, 441 Остановка в произвольный момент времени 201, 255 Отлов животных 186—187, 253, 302, 315 — рыб 65
Предметный указатель 519 Отражения повторные 114, 383 Отражения метод 115, 383 — принцип 90—91, 383 Отрицательное биномиальное распре- деление 80, 181 ид., 253 --------безграничная делимость 305 -------- двойное 299 --------как предел распределения Пойя 161 -------------статистики Бозе — Эйнштейна 80 --------математическое ожидание 238 --------производящая функция 283 Оценка несмещенная 256 — по выборке 203—204, 240—241, 252 -------- повторной 65, 186—187 -х — наблюденному максимуму вы- борки 240—241, 252 ----независимым наблюдениям 186 Очереди 309, 475 и д. — в случае конечного числа каналов 477 -------- одного канала 473 — и цепи Маркова 441 — как ветвящийся процесс 309, 311— 315 — модель 320 — период занятости 313—315, 330 — простейшая задача 330 Ошибок функция 194 Падения самолетов-снарядов в Лон- доне 177—178 Памяти отсутствие 324—343, 474 Парадокс де Мере 75 Пары 46 Пары (совпадения) 119, 125—126 Паскаля распределение 182 Первое достижение 108, 284. См. так- же Время первого достижения — попадание в единицу 284 — прохождение 108 ----через единицу 284 Перемены знака при случайном блуж- дании 102 и д., 115 Перемешивания критерий 63 Пересечение оси при случайном блуж- дании 102 и д., 115 — событий 33 Перестановка цифр 43 Перестановки 49, 422 — представляемые независимыми экс- периментами 150, 271 и д. Переупорядочение 49, 56 Переходные вероятности. См. также Вероятности перехода ----в стохастических процессах 459, 484 и д. -------------стационарные 460 --------цепях Маркова 388 Период занятости в теории очередей 313—315, 330 Периодические рекуррентные собы- тия 324 — состояния цепи Маркова 402 — цепи Маркова 419 и д. Петербургская игра 265—267 Петри чашка 180 Пешеходы как немарковский процесс. 438 — переходящие улицу 186 Плотности флуктуации 440—441 Плотность распределения 193 Повторного логарифма закон 201, 219 и д. --------интерпретация на языке теории чисел 223 и д. --------обобщенный 225 Поглощающие состояния цепи Мар- кова 399, 470 Поглощения вероятности в процессе размножения и гибели 470 --------цепи Маркова 414 и д., 434, 440, 453 и д. ---- при диффузии 383 --------случайном блуждании 356 и д., 376, 382 — время ожидания 441 Подобия метод 91 Подсчет бактерий 180 Пожары как испытания Бернулли с переменными вероятностями 295—296 Пойа процесс 495 — распределение 160 ----предельная форма 160, 182, 188 — урновая схема 138, 160, 254, 276, 495 --------как немарковский процесс 437—438 Показательное распределение 468, 474 Показательные времена обслуживания 473 и д. —-------функциональное уравнение 475 Покер, определение 25 — численные результаты 500 — элементарные задачи 55, 77, 130, 185, 186 Полимера длинные молекулы 28, 255 Полиномиальное распределение 184 и д., 229 ----для случайного числа испыта- ний 230 ----максимальная вероятность 187 ----производящая функция 293
520 Предметный указатель Попадание в точку в случайном блуж- дании 93 Попадания вероятности 346, 353 Популяции в теории восстановления 349 Последействия урновые модели 137, 140 Последние попадания (закон арк- синуса) 97 Последовательности испытаний 187 — содержащие два типа элементов 56—57 Последовательные статистические про- цедуры 377—378 Последовательный анализ 358, 377 и д. Предельные теоремы для отношений 425, 429 Признаки, сцепленные с полом 155 и д. Принцип отражения 90—91, 383 Проверка вакцин и сывороток 167 — выборочная 64. См. также Конт- роль выборочный — способности угадывать 126 и д. — эффективности 87—88, 167 Произведение мер 149 — пространств 146 и д. Производящая функция 278 -----безгранично делимая 304 -----разложение в произведе- ние 305 — — двойная 292, 354 -----распределения биномиального 281—282 -------- отрицательного 282—283 -------- геометрического 282—283 --------полиномиального 293 -----— Пуассона 282 --------совместного 316 — — суммы 281 Производящие функции моментов 298—299 Пространство фазовое 31 — элементарных событий 20, 26, 31 и д. --------дискретное 35 и д. — _ _ дЛЯ повторных испытаний и экспериментов 146 и д. -----------случайных величин 232 Процессы с независимыми прираще- ниями 460, 461 Прямые уравнения 372, 484, 487, 496 Пуассона испытания 232—233, 245, 295 — приближение в стохастических процессах 476, 495, 496 — — для задач о размещении 124 — — — испытаний Бернулли с пере- менными вероятностями 295. --------распределения биномиаль- ного 170 и д., 188, 204 -------------отрицательного 188, 295 -----------гипергеометрического 188 -------- совпадений 126 --------флуктуаций плотности 440— 441 -----связь с нормальным распреде- лением 204 — распределение 124, 173 и д. -----двумерное 188, 293 -----для длительных серий успехов 355 -----интегральное представление 189 -----многомерное 176, 188 -----моменты 238, 243 -----нормальное приближение 204, 208, 259 -----обобщенное 293, 301, 302 и д., 489 -----производящая функция 282 -----смесь с биномиальным распре- делением 187 -----формула свертки 189 -----эмпирические наблюдения 176 и д. Пуассоновский процесс 461 и д. -----обобщенный 489 -----постулаты 462 -----прямые и обратные уравнения 484 Пуассоновского типа входной поток 474 Путь в случайном блуждании 86 p(k\K) 173 Равновесие макроскопическое 409 и д., 471 Равновесное распределение 409 Равномерная мера 424 Равномерное распределение 252, 298 Радиоактивный распад 174, 176—177, 342 -----дифференциальные уравнения 464 Разбиение многоугольника 296—297 — стохастической матрицы 400—401 Разбиения комбинаторные 54 и д. Различимость 29, 39, 56 Разложение на простые дроби 289 и д., 298 ----------- для задачи о разорении 366 — — — — — конечной цепи Мар- кова 443 и д. -----—-------серии успехов 338 и д.
Предметный указатель 521 -----------численные примеры 292, 339 Размер семьи, геометрическое рас- пределение 159, 309 Размножения и гибели процесс 469 и д„ 477—478 --------— в задачах обслужива- ния 477, 493 -----------неоднородный 486 ----------- уравнения обратные 469 --------------прямые 469 — чистого процесс 463 и д., 491 --------расходящийся 466 и д. --------Уравнения обратные 483— 484 ----------- прямые 484 Разностные уравнения 358 ----для задачи о размещении 78, 298 -------------- разорении 358 --------распределения Пойа 160 --------случайных блужданий 90— 91, 358 и д., 371 и д. -------------- в двумерном случае 376 --------------метод отражения 383 ----------------частных решений 358, 364, 379 --------------переход к пределу 367, 384 Разность событий 34 Рандомизация в задачах о размещении 315 — выборки 230 Распределение возрастов в теории вос- становления 348—349, 354 — детей по признаку пола 28, 135— 137, 143—144, 159, 185, 302 — маргинальное 228 — свободных мест в кафе 62 — сложное 300 и д. — совместное 227 — условное 231 и д., 252 — устойчивое с показателем 1/2 108— 109 — эмпирическое 89 Распределения функция 193, 227 ---- кумулятивная 193 Распространение слухов 75 Рекуррентные события 322 и д. ---- возвратные 324 --------предельная теорема 350 ----и цепи Маркова 395—396, 413, 418, 431 ----невозвратные 324 ---- периодические 324 ----с запаздыванием 331 ид. ------------в теории восстановления 345, 348 -----число осуществлений 335 и д. Рецессивные гены 151 Родства степень 162 Рост популяции 335, 465, 471 Самовосстанавливающиеся устрой- ства 325, 348—349, 354 Свертка 280 и д. — распределения биномиального 281—282 -------- отрицательного 282—283 ----- геометрического 282—283 -----Пуассона 282 — частный случай 189 Светочувствительные материалы 29, 78 Семьи, задача о мытье посуды 76 — распределение возраста супругов 31, 35 -----детей по признаку пола 28, 135—137, 143—144, 159, 185, 302 Серии в комбинаторных задачах 63, 81 --------— и нормальное распределе- ние 208 — успехов двух типов 340—341,353— 354 -----длинные, распределение Пуас- сона 355 -----до серии неудач 211, 225 ----- как рекуррентные события 319, 337 и д., 353—354 -----цепь Маркова 396 Скользящие средние 438, 442 Скрещивание 152, 161, 394, 440, 455 — братско-сестринское 161, 394, 455 — случайное 152 — специальные законы 152 Слова 147 Служба безопасности 139 Случайно выбранные цифры и числа 28, 40, 51—52, 79 — — —--------приближение нор- мальное 203 ---------------- пуассоновское 171 — — — — — элементарные при- меры 74, 185 Случайное блуждание 85 и д., 356 и д. -----в d-мерном пространстве 385 — — двойственное 111 ----- инвариантная мера 424 -----как цепь Маркова 386—387, 390—391, 441, 451 и д. -----максимумы ПО и д., 383—384 -----метод восстановления 384—385 -----обобщенное 377 и д., 382 --------и задача о разорении 377 и д. -----обращенное 431 -----перемены знака 102 и д., 115 — — пересечение оси 103 и д., 115
522 Предметный указатель Случайное блуждание, попадание в точку 93 ----продолжительные лидерства 96 и д. ----с меняющимися вероятностями 417 ----связь с бросанием монеты 89, 357 -----------процессом диффузии 368 и д. ----циклическое 391, 449 Случайной цепи длина 255 Случайности расположения элемен- тов последовательности критерии 62—63, 79, 88, 127 Случайные величины 226 и д. ----дефектные 286, 325 ---- нормированные 244 ----с различными распределениями 267 и д. ----собственные 328 ----целочисленные 278 и д. Случайный выбор 50 Смесь распределений 187, 316 — цепей Маркова 442 Снос 356 — к границе 433 Собственные значения 444 Событие 25 — дополнительное 33 — как следствие другого события 34 — отрицание его 33 — противоположное 33 События 25, 31 и д. — в прямом произведении пространств 147 — независимые 143 и д. — несовместные 33 — объединение 33—34 ---- вероятность 118 — одновременное осуществление 33, 117, 124—125, 128, 160 — пересечение 33, 34 — разность 34 — составные (разложимые) 25 — элементарные (неразложимые) 25, 26 --------как точки пространства эле- ментарных событий 26 Совокупности неоднородные 135, 139 Совпадения кратные 131 — сложные 131 Соединения с неправильными номера- ми 178, 179 Состояние равновесия 409—410, 471 Состояния цепи Маркова 388 --------классификация 401 ид. Среднее значение распределения см. Математическое ожидание Ставка, эффект изменения 360 и д; Стандартное отклонение случайной ве- личины 243 Старение 342 Стационарное предельное распределе- ние возраста 354 — распределение генотипов 153 Стационарные переходные вероятнос- ти 437, 460 Стирлинга формула 72, 195, 198 Столетние старики 172—173 Стохастическая дважды матрица 414 — матрица 389 Стохастический процесс 435, 459 и д. -----немарковского типа 439 -----общего вида 484 и д. -----с возвращением 492 --------экранами отражающими 493 -----------поглощающими 492 -----------упругими 493 Стоянка машин, занятые места 74, 494 -----штрафы 75 Стрельба в цель 28, 105 Субстохастическая матрица 415 Суммы высших порядков 437 — случайного числа величин 300 и д< Супергсзиция марковских процессов (сложное тасование) 438 Счетчики Гейгера 28, 78, 320 -----как цепи Маркова 441 ----- типа второго 320, 353 --------общего 353 --------первого 320, 329, 353 Табу 425 Табу-вероятности 425 Телефон, время обслуживания 473 — вызовы 174, 296, 307 — соединения с неправильными номе- рами 178, 179 Телефонные линии, задачи 205, 475, 496 -----расчет числа 205, 473 Теорема восстановления 344 — о баллотировке 87, 91 -----равнораспределенности 113 и д< Теория восстановления 343, 345 Торшер семипозиционный 47 Триномиальное распределение 229, 253 -----максимальный член 208 -----производящая функция 293 Тэта-функция 384 У — обозначение успеха 163 Угадывание 126—128, 247 Удары молний, суммарный ущерб 303
Предметный указатель 523 Удвоение ставок 360 Урновые модели 137 и д. См. также Бернулли — Лапласа урновая мо- дель, Пойа урновая схема, Эрен- фестов урновая модель -----и цепи Маркова 387 -----неоднородных совокупностей 139 Уровень доверительный 204 Усечения метод 261 Условная вероятность 132 и д. Условное распределение 231 и д. -----математическое ожидание 237, 252 Успехи 163 Успехов нормированное число 200 Устойчивое предельное распределение возраста 348, 349 — распределение с показателем 1/2 108—109 Уэлдона данные о бросании костей 165—166 Фазовое пространство 31 Ферми — Дирака статистика (распре- деление) 22, 60—62 --------для опечаток 62, 77 Флагов вывешивание 48, 56 Флуктуации плотности 440—441 Фоккера — Планка уравнение 372 Фюрта формула 373 Характеристические числа 444 Характеристическое уравнение 379 Харди закон 154 -----неприменимость для двух пар генов 161—162 Хромосомы 151, 155 — изменения, подчиняющиеся рас- пределению Пуассона 178, 179, 301—302 — разрывы и воссоединение 75, 130, 155, 187 Центральная предельная теорема 258, 268—270, 275. См. также Муавра — Лапласа предельная теорема, Нор- мальное приближение --------для комбинаторных задач 271 ----------рекуррентных событий 335 Цепи случайной длина 255 Цепь писем 75—76 Циклические случайные блуждания 39!, 449 Циклы в испытаниях Бернулли 297, См. также Серии ----перестановках 271, 283 Цилиндрические множества 148 Час пик 307 «Частица» в случайном блуждании 92, Частных решений метод 358, 362, 379. 451 Частот функция 194 Чебышева неравенство 248 ----обобщенное 256 Шварца неравенство 256 Эволюция 466 Экология 303 Экран отражающий 357, 382—383, 385 ----в цепи М аркова 390—391 ----инвариантное распределение 414, 440 ----на плоскости 441 — поглощающий 342, 382—384, 492 ----в цепи Маркова 390 ----обобщение на двумерный слу- чай 376 — упругий 357, 382 ----в цепи Маркова 391 Экранов классификация 357, 390—391 Эксперименты мыслимые 20, 26 — независимые повторные 149 Экстрасенсорное восприятие 423 Элементарные события 25, 26 Эмпирическое распределение 89 Эргодические свойства стохастиче- ских процессов 471, 496 ----цепей Маркова 407, 457 — состояния 403 — цепи Маркова 407 Эренфестов урновая модель 139, 392, 441 -------- инвариантное распределе- ние 412 --------обратимость 431 Эрланга формула 479 Эффект последействия, урновые моде- ли 137, 140 Эффективности проверки 87—88, 167 Юла процесс 465, 493 Ядерные цепные реакции 308
ОГЛАВЛЕНИЕ Предисловие переводчика...........-.................................... 5 Из предисловия ко второму русскому изданию............................. 5 Предисловие к третьему изданию........................................ 18 Предисловие к пересмотренному третьему изданию........................ 10 -Предисловие к первому изданию........................................ 12 Как пользоваться этой книгой.......................................... 13 Введение. Природа теории вероятностей................................. 17 § 1. Исходные представления....................................... 17 § 2. Способ изложения............................................. 19 § 3. «Статистическая» вероятность................................. 20 § 4. Резюме....................................................... 21 § 5. Исторические замечания....................................... 22 Глава I. Пространства элементарных событий............................ 24 § 1. Эмпирические основания....................................... 24 § 2. Примеры...................................................... 26 § 3. Пространство элементарных событий. События................... 31 § 4. Отношения между событиями.................................... 32 § 5. Дискретные пространства элементарных событий................. 35 § 6. Вероятности в дискретных пространствах элементарных событий; подготовительные замечания............................... 37 §7. Основные определения и соотношения.......................... 41 § 8. Задачи....................................................... 43 Глава II. Элементы комбинаторного анализа............................. 46 § 1. Предварительные сведения........... 46 § 2. Упорядоченные выборки........... 48 § 3. Примеры......................., ..................... 51 § 4. Подмножества и разбиения........... 54 § 5. Приложение к задачам о размещении........... 58 § 6. Ги пер геометрическое распределение. 63 § 7. Примеры, связанные с временем ожидания. 67 § 8. Биномиальные коэффициенты .... 70 § 9. Формула Стирлинга........... 71 § 10. Упражнения и примеры........................................................ 74 §11. Задачи и дополнения теоретического характера................................ 77 § 12. Задачи и тождества, содержащие биномиальные коэффициенты 81 Глава III. Флуктуации при бросании монеты и случайные блуждания . . 85 § 1. Основные понятия. Принцип отражения...................... 86 § 2. Случайные блуждания; основные понятия и обозначения . • • 91 § 3, Основная лемма . . . . .................................. 94
Оглавление 525 § 4. Последнее попадание и продолжительные лидирования .... 96 § 5. Перемены знака............................................ Ю2 § 6. Результат эксперимента................................... 105 § 7. Максимумы и первые достижения............................ 107 § 8. Двойственность. Положение максимума........................ НО § 9. Теорема о равнораспределенности.......................... 113 § 10. Задачи.................................................... 114 Глава IV. Комбинации событий........................................ 117 § 1. Объединение событий........................................ 117 §2. Приложение к классической задаче о размещении.............. 120 §3. Осуществление т из N событий............................... 124 § 4. Приложение к задачам о совпадениях и к задаче об угадывании 125 §5. Различные дополнения....................................... 128 §6. Задачи..................................................... 129 Глава V. Условная вероятность. Стохастическая независимость .... 132 § 1. Условная вероятность....................................... 132 §2. Вероятности, определяемые через условные вероятности. Ур новые модели................................................. 136 § 3. Стохастическая независимость............................... 143 §4. Произведение пространств. Независимые испытания............ 146 §5. Приложения к генетике...................................... 150 §6. Признаки, сцепленные с полом............................... 155 § 7. Селекция................................................... 157 § 8. Задачи..................................................... 159 Глава VI. Биномиальное распределение и распределение Пуассона .... 163 § 1. Испытания Бернулли........................................ 163 § 2. Биномиальное распределение................................ 164 § 3. Максимальная вероятность и «хвосты»....................... 167 § 4. Закон больших чисел....................................... 169 § 5. Пуассоновское приближение................................. 170 § 6. Распределение Пуассона.................................... 173 § 7. Наблюдения, соответствующие распределению Пуассона ... 176 § 8. Время ожидания. Отрицательное биномиальное распределение 181 § 9. Полиномиальное распределение.............................. 184 § 10. Задачи.................................................... 185 Глава VII. Нормальное приближение для биномиального распределения 190 §1. Нормальное распределение................................... 190 § 2. Симметричные распределения................................. 194 § 3. Предельная теорема Муавра — Лапласа........................ 197 § 4. Примеры.................................................... 201 § 5. Связь с пуассоновским приближением......................... 204 § 6. Большие отклонения....................................... 206 § 7. Задачи..................................................... 207 Глава VIII. Неограниченные последовательности испытаний Бернулли 210 § 1. Бесконечные последовательности испытаний................... 210 §2. Системы игры............................................... 212 § 3. Леммы Бореля — Кантелли.................................... 215 §4. Усиленный закон больших чисел.............................. 217 § 5. Закон повторного логарифма , .............................. 219
526 Оглавление § 6. Интерпретация на языке теории чисел....................... 223 § 7. Задачи.................................................... 224 Глава IX. Случайные величины; математическое ожидание.............. 226 § 1. Случайные величины........................................ 226 § 2. Математические ожидания . , ............................. 235 § 3. Примеры и приложения...................................... 238 § 4. Дисперсия................................................. 242 § 5. Ковариация; дисперсия суммы............................... 244 § 6. Неравенство Чебышева...................................... 248 § 7. Неравенство Колмогорова ...» ............................. 249 § 8. Коэффициент корреляции . . . #............................ 250 § 9. Задачи.................................................... 251 Глава X. Законы больших чисел...................................... 257 § 1. Одинаково распределенные случайные величины.............. 257 § 2. Доказательство закона больших чисел....................... 261 § 3. Теория «безобидных» игр................................... 262 § 4. Петербургская игра........................................ 265 § 5. Случайные величины с различными распределениями . .... 267 § 6. Приложения к комбинаторному анализу...................... 271 § 7. Усиленный закон больших чисел . . . .................... 273 § 8. Задачи.................................................... 275 Глава XI. Целочисленные случайные величины. Производящие функции. 278 §1. Общие положения......................................... 278 § 2. Свертки................................................... 280 § 3. Возвращение в начало и времена ожиданий в испытаниях Бернулли 284 § 4. Разложение на простые дроби............................... 289 § 5. Двойные производящие функции , .......................... 292 § 6. Теорема непрерывности.................................... 293 § 7. Задачи.................................................... 296 Глава XII. Сложные распределения. Ветвящиеся процессы.............. 300 § 1. Суммы случайного числа величин........................... 300 § 2. Обобщенное распределение Пуассона......................... 302 §3. Примеры ветвящихся процессов.............................. 308 §4. Вероятности вырождения ветвящихся процессов............... 310 § 5. Общее число частиц в ветвящихся процессах................. 312 § 6. Задачи.................................................. 315 Глава XIII. Рекуррентные события. Теория восстановления............ 317 § 1. Неформальное введение и примеры . «...................... 317 § 2. Определения........................................... . 322 § 3. Основные соотношения ......................... 325 § 4. Примеры .............................. 327 § 5. Рекуррентные события с запаздыванием. Общая предельная теорема........................................................ 331 § 6. Число появлений &......................... 335 § 7. Приложения к теории серий успехов........................ 337 § 8. События более общего вида ............................... 340 § 9. Отсутствие памяти для времен ожидания с геометрическим распределением................................................. 342 § 10. Теория восстановления.................................... 343 §11. Доказательство основной предельной теоремы ............. 350 § 12. Задачи............................................... 353
Оглавление 527 Глава XIV. Случайное блуждание и задачи о разорении..................................... 356 § 1. Общие понятия................................................................ 356 § 2. Классическая задача о разорении................................................ 358 § 3. Математическое ожидание продолжительности игры................................. 362 § 4. Производящие функции для продолжительности игры и для времен первого достижения........................................................... 363 § 5. Явные выражения................................................................ 366 § 6. Связь с диффузионными процессами............................................... 368 § 7. Случайные блуждания на плоскости и в пространстве.............................. 374 § 8. Обобщенное одномерное случайное блуждание (последователь- ный анализ)......................................................................... 377 § 9. Задачи .... *.................................................................. 381 Глава XV. Цепи Маркова.................................................................. 386 § 1. Определение. 386 § 2. Пояснительные примеры..................... 390 § 3. Вероятности перехода за несколько шагов. 397 § 4. Замыкания и замкнутые множества. 398 § 5. Классификация состояний . 401 § 6. Неприводимые цепи. Разложения..................... 405 § 7. Инвариантные распределения. 407 § 8. Невозвратные состояния....................... 414 § 9. Периодические цепи. 419 § 10. Применение к тасованию карт........................ 421 §11. Инвариантные меры. Предельные теоремы для отношений . . 423 § 12. Обращенные цепи. Границы..................................................... 429 § 13. Общий марковский процесс...................................................... 435 § 14. Задачи ....................................................................... 440 Глава XVI. Алгебраическая трактовка конечных цепей Маркова .... 443 § 1. Общая теория................................................................... 443 § 2. Примеры........................................................................ 447 §3. Случайное блуждание с отражающими экранами..................................... 451 § 4. Невозвратные состояния; вероятности поглощения................................. 453 § 5. Приложение к временам возвращения ............................................. 457 Глава XVII. Простейшие стохастические процессы с непрерывным временем 459 § 1. Общие понятия. Марковские процессы............................................ 459 § 2. Пуассоновский процесс.......................................................... 461 § 3. Процесс чистого размножения.................................................... 463 § 4. Расходящийся процесс размножения . . .......................................... 466 § 5. Процесс размножения и гибели................................................... 469 § 6. Показательные времена обслуживания............................................. 473 § 7. Очереди и задачи обслуживания.................................................. 475 § 8. Обратные (обращенные в прошлое) уравнения...................................... 482 § 9. Процессы общего вида........................................................... 484 § 10. Задачи . ..................................................................... 493 Ответы к задачам....................................................................... 497 Именной указатель..................................................................... 510 Предметный указатель.................................................................... 513
Вильям Феллер ВВЕДЕНИЕ В ТЕОРИЮ ВЕРОЯТНОСТЕЙ И ЕЕ ПРИЛОЖЕНИЯ В 2-х томах Том 1 Ст. научный редактор Г. М. Ильичева Мл. научный редактор Т. А. Денисова Художник Е. И. Волков Художественный редактор В. И. Шаповалов Технический редактор Н. И. Борисова Корректор Е. Г. Литвак И Б № 3127 Сдано в набор 26.09.83. Подписано к печати 18.04.84. Формат 60х90’/1б. Бумага типограф- ская № 2. Объем 16,50 бум. л. Ус л. кр.-отт. 33,00. Гарнитура литературная. Печать высокая. Усл. печ. л. 33,00. Уч.-изд. л. 33,28. Изд. № 1/1766. Тираж 40 000 экз. Заказ № 221. Цена 2 р. 60 к. ИЗДАТЕЛЬСТВО «МИР» 129820, Москва, И-110, ГСП, 1-й Рижский пер., 2 Набрано и сматрицировано в ордена Октябрь- ской Революции и ордена Трудового Красного Знамени Первой Образцовой типографии имени А. А. Жданова Союзполиграфпрома при Государственном комитете СССР по делам издательств, полиграфии и книжной торговли. Москва, М-54, Валовая, 28 Отпечатано в Ленинградской типографии № 2 головном предприятии ордена Трудового Крас- ного Знамени Ленинградского объединения «Техническая книга» им. Евгении Соколовой Союзполиграфпрома при Государственном комитете СССР по делам издательств, поли- графии и книжной торговли. 198052, г. Ленин- град, Л-52, Измайловский проспект, 29.