Текст
                    ВЫСШАЯ
МАТЕМАТИКА
М.Л.Краснов
А. И. Киселев
Г. И. Макаренко
Е.В.Шикин
В.И.Заляпин
С.К.Соболев
Рекомендовано
Министерством образования
Российской федерации
в качестве учебника для студентов
высших технических учебных заведений
Эдиториал УРСС • Москва • 2001


ББК 22.1я73 Краснов Михаил Леонтьевич, Киселев Александр Иванович, Макаренко Григорий Иванович, Шикин Евгений Викторович, Заляпнн Владимир Ильич, Соболев Сергей Константинович Вся высшая математика: Учебник. Т. 5. — М.: Эдиториал УРСС, 2001. — 296 с. ISBN 5-8360-0306-8 Предлагаемый учебник впервые вышел в свет в виде двухтомника сначала на английском и испанском языках в 1990 году, а затем на французском. Он пользуется большим спросом за рубежом. В 1999 году книга стала лауреатом конкурса по созданию новых учебников Министерства образования России. Этот учебник адресован студентам высших учебных заведений (в первую очередь будущим инженерам и экономистам) и охватывает практически все разделы математики, но при этом представляет собой не набор разрозненных глав, а единое целое. Пятый том включает в себя материал по теории вероятностей, математической статистике и теории игр. Директор — Доминго Марин Рикой Заместители директора — Наталья Финогенова, Ирина Макеева Главный редактор — Елена Кудряшова Компьютерный дизайн — Виктор Романов, Василий Подобед Верстка — Михаил Кириллов, Ксения Пулькина, Анна Чикунова, Андрей Стулов, Анар Мелик-Еганов Редакционно-корректурные работы — Василий Подобед, Александр Савченко Указатель — Василий Подобед, Андрей Стулов Обработка графики — Василий Подобед, Наталья Аринчева, Елена Колокольчикова Дизайн обложки — Ирина Макеева Техническая поддержка — Наталья Аринчева Менеджер по продажам — Алексей Петяев Издательство «Эдиториал УРСС». 113208, г. Москва, ул. Чертановская, д. 2/11, к. п. Лицензия ИД №03216 от 10.11.2000 г. Гигиенический сертификат на выпуск книжной продукции №77.ФЦ.8.953.П.270.3.99 от 30.03.99 г. Подписано к печати 20.07.2001 г. Формат 70x100/16. Тираж 2500 экз. Печ. л. 18,5. Зак. N» 244. Отпечатано в АООТ «Политех-4». 129110, г. Москва, ул. Б. Переяславская, 46. 9*785836 003067 > ISBN 5-8360-0150-2 (Полное произведение) ISBN 5-8360-0306-8 (Том 5) © Эдиториал УРСС, 2001 Все права защищены. Никакая часть настоящей книги не может быть воспроизведена или передана в какой бы то ни было форме и какими бы то ни было средствами, будь то электронные или механические, включая фотокопирование и запись на магнитный носитель, если на то нет письменного разрешения Издательства. Издательство УРСС научная и учебная литература Тел./факс: 7@95I35-44-23 Тел./факс: 7@95I35-42-46 E-mail: ures@urss.ru Каталог изданий в Internet: http://urss.ru
ТЕОРИЯ ВЕРОЯТНОСТЕЙ При изучении различных явлений в природе и обществе исследователь сталкивается с двумя видами экспериментов — теми, результаты которых однозначно прогнозируе- прогнозируемы в данных условиях, и теми, результаты которых в условиях, контролируемых иссле- исследователем , однозначно спрогнозировать нельзя, а можно лишь высказать предположе- предположение о спектре возможных результатов. В первом случае говорят о детерминированных явлениях, во втором — о явлениях, носящих случайный характер. При этом имеют в виду, что а рпоп (заранее, до проведения эксперимента или завершения наблюдения за явлением) в первом случае мы в состоянии предсказать результат, а во втором — нет. Для дальнейшего несущественно, чем вызвана подобная непредсказуемость — законами природы, лежащими в основе изучаемого явления или неполнотой инфор- информации о процессах, обуславливающих это явление. Важным обстоятельством является наличие самого факта непредсказуемости. Теория вероятностей, изложению основ которой посвящен этот раздел, призвана дать исследователю возможность описывать подобного рода эксперименты и явления и предоставляет ему надежный инструмент для изучения реальности в ситуациях, когда детерминистическое описание невозможно.
Глава XXXVII ЭЛЕМЕНТАРНЫЕ СООБРАЖЕНИЯ Прежде чем переходить к строгим определениям основных понятий теории ве- вероятностей, мы рассмотрим несколько простых и в то же время типичных ситуаций, призванных проиллюстрировать идейную сторону дальнейшего изложения. § 1. Схема случаев Потребность в теоретико-вероятностных методах, как правило, возникает в ситуации, когда исход изучаемого явления по тем или иным причинам не может быть одно- однозначно спрогнозирован. Одной из простейших моделей такого сорта ситуаций может служить схема случаев. Под схемой случаев мы понимаем такую ситуацию, когда, во-первых, множество возможных исходов рассматриваемого эксперимента образу- образует конечную совокупность, а во-вторых, каждый из исходов имеет такие же шансы на осуществление, как и любой другой. При этом предполагается, что исследуемое явление может наблюдаться в идентичных условиях1' неограниченное число раз — эксперимент обладает свойством повторяемости. Очевидно, что в этом случае шансы на осуществление того или иного исхода в каждом отдельно взятом эксперименте тем меньше, чем больше самих исходов, а шансы на осуществление какой-либо группы исходов пропорциональны количеству исходов в рассматриваемой группе. Пример 1. Рассмотрим эксперимент, состоящий в подбрасывании монеты. Пренебрегая «нештатны- «нештатными» возможностями — монета стала на ребро, закатилась в щель, прилипла к потолку и т. п. — будем считать, что возможные исходы этого эксперимента — это выпадение герба или решетки (решки). Если предположить дополнительно, что монета является физически симметричной и что эксперимент производится «честно», то мы получим простейший пример схемы случаев с двумя равновозможными исходами. Заметим, что если монета несимметрична, то рассмотренный эксперимент схемой слу- случаев в нашем понимании описан быть не может, так как исходы уже не будут обладать свойством равновозможности. Пример 2. Пусть в урне лежит N физически идентичных шаров, пронумерованных от 1 до N. Экс- Эксперимент состоит в извлечении шара из урны, возможный исход однократного извлечения — любой номер от 1 до N. Если шары тщательно перемешаны и извлекаются из урны наугад, то мы имеем пример схемы случаев с N равновозможными исходами. 1.1. Вероятность исхода. Событие. Вероятность события Для описания возможности осуществления того или иного исхода в схеме случаев вве- введем количественную характеристику указанной возможности — вероятность исхода, которую определим как величину, обратно пропорциональную общему количеству N равновозможных при однократном проведении эксперимента исходов: где А; — некоторый коэффициент пропорциональности. ^ По крайней мере в принципе.
§1. Схема случаев. Для того чтобы понять, каким он должен быть, введем понятие события, которое может (или не может) осуществляться в эксперименте: Событием в эксперименте, описываемом схемой случаев, назовем любую совокуп- совокупность исходов рассматриваемого эксперимента. Мы будем говорить, что событие осуществилось, если в результате однократного проведения эксперимента реализовался один из составляющих это событие исходов. Пример 3. Рассмотрим эксперимент, состоящий в извлечении ровно одной карты из тщательно пе- перетасованной колоды, содержащей 36 карт. Этот эксперимент может быть описан схемой случаев с 36 равновозможными исходами. Примерами событий в рассматриваемой ситуации могут служить следующие: — ф = {извлеченная карта имеет масть пик}. Это событие состоит из всех (9) пиковых карт. Оно осуществляется (происходит) в эксперименте, если мы извлекли из колоды любую пиковую карту. — Десятка = {извлеченная карта — десятка}. Это событие состоит из всех D) карт с изобра- изображением десятки. Оно происходит, если мы извлекли из колоды любую десятку. — Картинка = {извлеченная карта — валет, дама, король или туз}. Если у нас есть пара событий А и В, то можно сконструировать из них новые события, пользуясь следующими простыми правилами действий: Суммой двух событий Аи В назовем событие, происходящее, если происходит либо событие Л, либо событие В, либо оба эти события одновременно2^. Легко понять, что сумма событий составляется из всех исходов входящих либо в А, либо в В, при этом общие исходы (т. е. входящие одновременно и в А, и в В) входят в сумму однократно. Обозначение для суммы: Аи В. Пример 4. В описанном выше эксперименте с извлечением одной карты из 36-листовой колоды суммой событий А = {извлеченная карта масти пик} = {6ф,..., Тф} и В = {извлеченная карта — король} = {Ki/t, #0, KV, К+} будет событие С = {6ф,..., 2>, К+, К$, KV}, состоящее в извлечении карты масти пик или любого короля. Совмещением (произведением) двух событий А и В назовем событие, происходящее, если события Аи В осуществляются одновременно. Совмещение событий состоит из всех общих для событий А и В исходов. Обозначение для совмещения: А П В. Чаще всего знак совмещения П опускают, обозначая совмещение событий А- В = АВ. Если у событий отсутствуют общие исходы, то такие события вместе не происхо- происходят. Они называются несовместными. При сложении несовместных событий обычно используется значок «+» вместо значка объединения U — сумма обозначается в этом случае как Л + В. Пример 5. В описанном выше эксперименте совмещением событий А и В будет событие, состоящее в извлечении короля пик. Здесь же события ф и Ф — несовместны. Отрицанием события А или событием, противоположным событию А, назовем собы- событие, происходящее, когда событие А не происходит. Отрицание (противоположное событие) состоит из всех тех исходов эксперимента, которые не входят в А. 2' В соответствии с определением события, оно происходит в эксперименте, если осуществляется любой из благоприятствующих ему исходов. Одновременное осуществление событий понимается как реализация в эксперименте их общего исхода.
Глава XXXVII. Элементарные соображения Обозначение для отрицания (противоположного события): А. Пример 6. В описанном выше эксперименте отрицанием события В будет событие, состоящее в из- извлечении любой карты, не являющейся королем. Рассмотрим теперь событие, которое в дальнейшем будем обозначать буквой п, со- составленное из всех исходов рассматриваемого эксперимента. Очевидно, что при любой реализации эксперимента какой-нибудь исход обязательно осуществится, а следова- следовательно, осуществится событие п, что дает основание назвать это событие достовер- достоверным. Оно происходит всегда, когда проводится эксперимент. Пополним множество возможных в рассматриваемом эксперименте событий событием невозможным, кото- которое в данном эксперименте не происходит. Невозможное событие будем обозначать символом 0. Легко понять, что если мы имеем дело со схемой случаев с N равновозможны- ми исходами, то общее количество всех событий в рассматриваемом эксперименте равно 2^. < Действительно, событий, состоящих ровно из одного исхода, будет JV, из двух исходов — Cjf, и вообще, событий, состоящих из S исходов, будет С$. Таким образом, число возможных событий равно если добавить теперь к этому количеству еще одно — невозможное — событие, получим искомый результат, так как известно3^, что l 2 ? ... + C% = (l + l)N = 2N, откуда и следует искомое. > Отметим несколько очевидных соотношений: Естественно под вероятностью события понимать величину, пропорциональную количеству входящих в него исходов — если некоторое событие составлено S исхода- исходами, то его вероятность положим равной S-P = S~. B) При этом ясно, что чем больше исходов входят в событие (говорят — благоприятствуют осуществлению события), тем больше шансы на его осуществление, как следствие — тем больше его вероятность. Все события, осуществляющиеся в эксперименте, с точки зрения шансов на осуществление естественно располагаются между невозможным и достоверным событиями. Вероятность невозможного события положим равной нулю, отмечая тем самым, что шансов на осуществление невозможного события нет. Вероятность достоверного события может быть принята равной любому положи- положительному числу — никаких запретов или ограничений на это значение нет. Так как достоверное событие включает все возможные исходы, то его вероятность больше ве- вероятности любого другого события в этом эксперименте и равна, в силу B), сумме вероятностей всех исходов, т. е. Р(?1) — N • k/N — к. Таким образом, коэффициент пропорциональности в соотношении A) равен вероятности достоверного события. Здесь использована формула Ньютона для разложения бинома.
§1. Схема случаев. Поскольку выбор значения вероятности достоверного события не влияет на со- содержательную сторону описания возможности осуществления того или иного исхода в схеме случаев, а меняет только масштаб шкалы измерения вероятностей, положим и, тем самым, завершим определение вероятностей исхода и события в схеме случаев. Суммируя вышеизложенное, еще раз отметим, что все события, происходящие в эксперименте, могут быть естественным образом ранжированы в соответствии с их шансами на осуществление при однократной реализации эксперимента. В этой ран- ранжировке они располагаются между невозможным событием, которое не происходит никогда, и достоверным, которое реализуется всегда, когда реализуется эксперимент. Мерой осуществимости любого события А выступает его вероятность, опреде- определяемая как отношение количества S благоприятствующих осуществлению события исходов к общему числу N всех возможных исходов: Отметим некоторые свойства вероятности события в схеме случаев. 1. Вероятность любого события, происходящего в рассматриваемом эксперимен- эксперименте, задается положительным числом, заключенным в пределах между 0 и 1 2. Если события Аи В — несовместны, то вероятность суммы равна сумме веро- вероятностей в частности, справедлив так называемый принцип дополнительности Р(А) = \-Р(А). Рассмотрим несколько примеров, иллюстрирующих технику нахождения вероят- вероятностей событий в схеме случаев. Пример 7. Пусть в урне лежит т+п физически идентичных шаров, окрашенных соответственно в белый (п шаров) и черный (тп шаров) цвета. Эксперимент состоит в извлечении из урны одного шара. Найдем вероятность извлечения шара белого цвета ¦4 Поскольку всего возможных исходов N = m + n, а благоприятствующих извлечению белого шара — п, то искомая вероятность дается отношением п/(тп + п). > Пример 8. В условиях предыдущего примера производится извлечение двух шаров. Какова вероятность того, что оба извлеченных шара — белые7 Извлечены разноцветные шары? ¦4 Ответ на первый вопрос задачи может быть получен, например, с помощью следующих рассуж- рассуждений. Всего различных пар шаров из урны, содержащей т + п физически идентичных шаров, можно составить Сщ+П, так что можно считать, что всего различных исходов в рассматриваемом эксперимен- эксперименте Сщ+„. В то же время количество пар белых шаров дается числом С\, откуда искомая вероятность равна ' С2т+п (m + n)(m + n-l)# Аналогичные соображения для второго вопроса дают. Заметим, что рассматриваемый эксперимент — извлечение пары шаров — эквивалентен двукратному последовательному извлечению шаров из урны.
Глава XXXVII. Элементарные соображения Пример 9. В условиях предыдущего примера производится последовательное извлечение двух шаров с возвращением каждого извлеченного шара обратно в урну. Какова вероятность того, что оба извлеченных шара — белые' Извлечены разноцветные шары? < В отличие от предыдущей ситуации, общее количество возможных исходов в рассматриваемом эксперименте будет уже равно N = (т + пJ, а количество 5 исходов, благоприятствующих интересу- интересующему нас событию (оба шара — белые) — п2, и, следовательно, искомая вероятность равна Р(б,б) = т + п Аналогичные рассуждения для второго вопроса дают: N = (m + nJ, S = 2mn, Пример 10. Ребенок, играя с четырьмя карточками разрезной азбуки, на которых изображены буквы А, А, М, М, случайным образом выкладывает их в ряд. Какова вероятность того, что у него получится слово МАМА? < Предполагая, что все возможные расстановки четырех карточек в ряд равновозможны, получаем схему случаев с общим количеством исходов N = 4! = 24. Количество исходов, благоприятствующих интересующему нас событию, равно 5 = 4, откуда искомая вероятность равна 4/24 =1/6. > Пример 11. Студент подготовил к экзамену 40 из 50 вопросов, охватывающих программу изученного курса. На экзамене ему предлагается дать ответ на два случайным образом выбранных из общего списка вопроса. Какова вероятность того, что студент знает ответ на оба предложенных ему вопроса? ¦4 Легко видеть, что всего различных вариантов выбора пары различных вопросов из общего спис- списка, содержащего 50 вопросов, будет N = С20. Интересующее нас событие состоит из таких пар вопро- вопросов, оба из которых известны студенту. Их количество 5 = Сщ. Таким образом, искомая вероятность дается отношением г2 40 Пример 12. В урне лежит всего 10 черных и белых шаров. Из урны извлекают без возвращения пару шаров. Известно, что вероятности извлечения одноцветных шаров относятся как 2 : 5. Можно ли по этим данным установить состав шаров в урне? < Пусть в урне лежит п белых (черных) (соответственно, 10 — п черных (белых)) шаров. Тогда вероятность извлечения из урны пары белых (черных) шаров будет равна Р(б,б) = Р(ч,ч) = 10- 9 ' аналогично, пары черных (белых) шаров A0-п)(9-п) 10-9 Из условия задачи следует Р(б, б) _ п(п- 1) Р(ч, ч) ~ A0-n)(9-n) ~ 5' откуда для п получаем уравнение п2+ 1171-60 = 0, единственное целое положительное решение (п = 4) которого дает ответ — в урне возможно наличие 4 белых и 6 черных, либо 4 черных и 6 белых шаров. > Пример 13. В урне лежит некоторое количество белых и черных шаров, так что вероятность извлечения пары белых шаров равна 0,5. Какое минимально возможное количество шаров находится в урне? Каков при этом состав шаров в урне? ¦4 Пусть в урне лежит всего N шаров, из которых п < N — белые. Вероятность извлечения пары белых шаров (см. предыдущий пример) дается соотношением и условие задачи приводит к уравнению, связывающему N и п п(п - 1) _ 1 N(N-l) ~ 2'
§2. Геометрические вероятности. Учитывая, что величины п и N — целые положительные числа, удовлетворяющие условию п < N, выразим из этого соотношения п через N + 2N(N - 1) n= ! 2 и, придавая величине N последовательно значения 1, 2,... , найдем, что наименьшее значение N, при котором п — целое положительное, равняется 4. Значение п при этом равно 3. > Пример 14. Среди выпущенных N лотерейных билетов п — выигрышных. Некто приобрел г < N — п лотерейных билетов. Какова вероятность того, что среди них по крайней мере один выигрышный? 4 Заметим, что событие А = {среди приобретенных г билетов по крайней мере один выигрыш- выигрышный} противоположно событию А — {среди приобретенных г билетов выигрышных нет}. Для решения задачи воспользуемся принципом дополнительности: Р(А) = 1 - Р( А). Найдем вероятность Р( А). Всего возможных исходов (т.е. различных наборов из г лотерейных билетов) CrN, среди них таких, которые не содержат ни одного выигрышного билета — C]^_n. Для вероятности Р(А) получаем откуда искомая вероятность дается соотношением Р(А) = 1 - О=±. > Пример 15. Среди выпущенных N лотерейных билетов п — выигрышных. Некто приобрел г < min{n, N — п} лотерейных билетов. Какова вероятность того, что среди них ровно к выигрышных? ¦4 Как и выше, всего возможных исходов (т.е. различных наборов из г лотерейных билетов) будет CrN. Набор, содержащий ровно к выигрышных билетов, образуется в результате объединения любых к выигрышных билетов с любыми г — к невыигрышными. Количество различных наборов из к выигрышных билетов равно С*, количество различных наборов из г - к невыигрышных билетов равно См~}п. Следовательно, количество различных комбинаций из выигрышных и невыигрышных билетов дается числом С* • Cjf_n, а искомая вероятность равна § 2. Геометрические вероятности Другая схема описания экспериментов с неоднозначно прогнозируемыми исходами, которая позволяет довольно просто ввести количественную характеристику осуще- осуществимости того или иного события — это схема геометрических вероятностей, кото- которая, как и рассмотренная выше схема случаев, эксплуатирует идею оравновозможности исходов эксперимента. Аналогично тому, как это было проделано в схеме случаев, количественная харак- характеристика осуществимости события — его вероятность — определяется как нормиро- нормированная некоторым образом величина, пропорциональная запасу исходов, благопри- благоприятствующих осуществлению события. Пусть множество исходов исследуемого эксперимента может быть описано как множество п точек некоторого «геометрического континуума» — каждому исходу со- соответствует некоторая точка и каждой точке отвечает некоторый исход. В качестве «геометрического континуума» п может выступать отрезок на прямой, дуга спрямляе- спрямляемой кривой на плоскости или в пространстве, квадрируемое множество на плоскости (треугольник, прямоугольник, круг, эллипс и т. п.) или часть квадрируемой поверх- поверхности, некоторый объем в пространстве (многогранник — призма, пирамида, шар, эллипсоид и т. п.)
10 — Глава XXXVII. Элементарные соображения Событием назовем любое квадрируемое подмножество множества п. Как и в схеме случаев, событие состоит из точек-исходов, однако уже не любая совокупность исходов образует событие, атолько такая, меру которой (длину, площадь, объем) мы можем измерить. Предполагая равновозможность исходов, назовем вероятностью события А число, пропорциональное мере подмножества А множества п: Если 0 — событие, невозможное в данном эксперименте, а О — достоверное, то положим Р@) = 0, Р(П) = 1. Вероятность любого события А будет при этом за- заключена между нулем — вероятностью события невозможного, и единицей — вероят- вероятностью события достоверного4^. Условие нормировки позволяет найти константу к — коэффициент пропорциональности, задающий вероятность. Он оказывается равен Таким образом, в схеме геометрических вероятностей вероятность любого события определяется как отношение меры подмножества А, описывающего событие, к мере множества Г2, описывающего эксперимент в целом: C) Отметим некоторые свойства так определенной вероятности: 1. УЛСП 0<Р(Л)< 1. 2. Если А С В, то Р(А) ^ Р(В). < Свойство очевидно следует из того обстоятельства, что множество, содержаще- содержащееся внутри другого, не может быть больше последнего. > Как и в схеме случаев, события в схеме геометрических вероятностей можно объ- объединять, совмещать и строить на их основе противоположные — при этом будут полу- получаться, вообще говоря, отличные от исходных события. Следующее свойство весьма важно. 3. Если события А и В — несовместны, то Р(А U В) — Р(А)+Р(В), в частности, справедлив принцип дополнительности: Р(А) = 1 - Р(А). < Это свойство, называемое обычно правилом сложения вероятностей, очевидно следует из аддитивности меры5). > В заключение отметим, что вероятность осуществления любого исхода в схеме геометрических вероятностей всегда равна нулю, равно как равна нулю вероятность любого события, описываемого «тощим» множеством точек, т. е. множеством, мера которого (соответственно — длина, площадь, объем) равна нулю. Рассмотрим несколько примеров, иллюстрирующих вычисление вероятностей в схеме геометрических вероятностей. Пример 1. Эксперимент состоит в случайном выборе точки из отрезка [а, Ь]. Найти вероятность того, что выбрана точка, лежащая в левой половине рассматриваемого отрезка. ¦« По определению, вероятность выбора точки из любого множества на отрезке [о, Ь] пропорцио- пропорциональна длине этого множества. Следовательно, искомая вероятность равна 0,5: , (о + Ь)/2]) _ (Ь - о)/2 _ 1 1(а, Ь) ~ Ь-а ~ 2'* 4^ Однако, в отличие от схемы случаев, здесь уже возможны события, имеющие нулевую вероятность, и могут не быть достоверными события с вероятностью единица. 5^ Мера (длина, площадь, объем) суммы непересекающихся множеств равна сумме их мер.
§2. Геометрические вероятности. 11 Пример 2. Эксперимент состоит в случайном выборе точки М(?, г)) из квадрата К = {—1 ^ ?, г) ^ 1}. Какова вероятность того, что уравнение имеет действительные корни? Равные корни? •4 Хорошо известно, что у квадратного уравнения корни действительны, если его дискриминант неотрицателен. В рассматриваемом случае дискриминант D дается соотношением и будет неотрицателен, если (?, rj) удовлетворяют условию A: {HJ. U {\ Ц т е если точка М(?, rj) будет выбрана из множества А, являющегося пересечением квадрата К и мно- множества точек, описываемого вышеприведенными условиями (рис. 1). -1 Рис. 1. Случайный выбор точки из квадрата К Следовательно, для искомой вероятности получаем: Р (корни действительны) = S(A) S(K) 1 4' Далее, корни квадратного уравнения совпадают, если D = 0. Этому значению дискриминанта отвечает отрезок оси О? от -1 до +1 и отрезок биссектрисы первого и третьего координатного угла, лежащий внутри квадрата К (рис. 1). Легко понять, что площадь этого множества точек равна нулю и, следовательно, вероятность совпадения корней рассматриваемого уравнения равна нулю. > Следующий пример является классическим6* и призван проиллюстрировать то простое соображение, что понятие «случайности» не является очевидным и одинаково понимаемым всеми, а потому должно быть, вообще говоря, аккуратно формализовано, иначе использование вероятностных соображений может привести к недоразумениям. Пример 3. В круге радиуса R случайным образом выбрана хорда. Какова вероятность того, что длина этой хорды больше радиуса? < В первую очередь следует понять, что значит хорда выбрана случайно. 1. Поскольку длина хорды однозначно определяется расстояни- расстоянием этой хорды от центра круга, то одна из возможных интерпретаций случайного выбора может выглядеть так: Случайный выбор хорды эквивалентен случайному выбору точки на диаметре круга. Длина хорды, находящейся на расстоянии d от центра, равна 2VR2 — d2, и для того чтобы длина хорды превышала длину радиуса круга, нужно, чтобы выбранная точка была расположена от центра круга на расстоянии, не превышающем d = R.V3/2 (рис. 2) Поэтому искомая вероятность раана у/г Т d Р= -z— = -г-. Рис. 2. Задача Бертрана — пер- первый способ 2R 6' Вероятно впервые эта задача обсуждалась в книге Ж. Л. Бертрана «Исчисление вероятностей», вышед- вышедшей в 1889 году. Заметим, что помимо рассмотренных ниже, существует еще по крайней мере три различных возможности формализации данной задачи.
12 . Глава XXXVII. Элементарные соображения 2 Всякая хорда может быть задана парой точек на окружности, являющихся ее концами. Поэтому другая интерпретация случайного выбора хорды может быть сформулирована так. Случайный выбор хорды эквивалентен случайному выбору пары точек на дуге окружности. у О х Рис. 3. Задача Бертрана — второй способ Выбирая на окружности начало отсчета и задавая направление обхода (например, против часо- часовой стрелки), пометим положение любой точки на окружности ее координатой, меняющейся в преде- пределах от 0 до 2тг. Множество хорд может быть описано множеством упорядоченных пар чисел (х, у), О ^ х ^ у ^ 27г — координат начала и конца каждой из хорд (рис. 3, слева). Это множество на плос- плоскости координат (х, у) изображается треугольником ОАВ (рис. 3, справа). Понятно, что длина хорды будет больше радиуса, если координаты начала и конца хорды удовлетворяют условиям 7Г Ж "' 3 ^ Ъ Последние могут быть записаны одним двойным неравенством 7Г 5?Г Множество точек (х, у), удовлетворяющих этому условию, заштриховано на рис. 3 (справа). Теперь легко находим 'штрих 4тг^ 5U и искомая вероятность равна что отличается от результата, полученного выше. > р _ "штрих *¦ Soab 3' §3. Условные вероятности. Взаимное влияние и независимость Информация о реализации некоторого события в эксперименте может менять наши представления о шансах на осуществление других событий. Пример 1. Пусть в эксперименте с бросанием симметричной монеты рассматриваются события Г — вы- выпадение герба и Р — выпадение решки. Очевидно, что если нам известно: выпал герб, т.е. осуществи- осуществилось событие Г, то осуществление события Р — выпадение решки в этом эксперименте невозможно. Пример 2. Если в эксперименте с извлечением карты извлечена карта if ф, то очевидно, что одновре- одновременно осуществились события ф = {извлечена карта масти пик} и К = {извлечен король}. Другими словами, осуществление события К+ влечет за собой осуществление и этих событий. Но, конечно, может оказаться и так, что осуществление одного из событий в экс- эксперименте ничего не говорит нам об осуществлении или неосуществлении другого, точнее, не меняет наших представлений о шансах на его осуществление.
§3. Условные вероятности. Независимость 13 Пример 3. Рассмотрим эксперимент, состоящий в двукратном извлечении шаров из урны с последую- последующим возвращением извлеченного шара обратно в урну. Пусть в урне лежит N — т-\-п соответственно черных (т) и белых (п) шаров. Рассмотрим события: А — шар, извлеченный первым, белый, В — шар, извлеченный вторым, белый. Поскольку после каждого извлечения шар возвращается в урну, то ясно, что зависимости между этими событиями нет. Из общих соображений понятно, что при условии осуществления одного из со- событий шансы на осуществление другого должны быть пропорциональны запасу их общих исходов7^ — чем значительнее общая часть рассматриваемых событий, тем вы- выше должны быть шансы на осуществление одного из них, в предположении, что другое произошло. Введем соответствующее формальное понятие. Условной вероятностью осуществления события А относительно события В назовем число s{AnB) s(B) ' zdeS{A П В), S(B) —запас исходов эксперимента, благоприятствующих осуществлению соответственно событий АО В и В. Пусть событие В фиксировано и таково, что Р{В) > 0. Тогда условная вероят- вероятность обладает следующими очевидными свойствами: 1. У А 0^Р(А\В) < 1. 2. Если события Аи В — несовместны, то Р(А\В) = 0, если же события Аи В таковы, что В составляет часть А^, то Р (А | В) = 1, в частности Р (В | В) = 1. 3. Для условных вероятностей справедливо правило сложения P(AlUA2\B)=P(Al\B) + P(A2\B), если только события А\ и Ai несовместны. Таким образом, условная вероятность обладает всеми свойствами вероятности и описывает шансы на осуществление события А при уже происшедшем событии В. Очевидно, что, вообще говоря, Р(А\В) Ф Р(В\ А). Сразу же заметим, что условная вероятность может быть вычислена как отноше- отношение вероятности совместного осуществления событий Аи В к вероятности события- условия В: S(A П В) S(ADB) = S(ADB) S(u) S(O) =Р(АПВ) { ' ' S(B) S(B) ' S(u) S(B) P(B) ' Из последнего соотношения следует правило умножения вероятностей Р(А ПВ) = Р(АВ) = Р(А\В)Р(В) = Р(В\ А)Р(А), D) справедливое для событий с положительной вероятностью. Рассмотрим несколько примеров, иллюстрирующих введенное понятие. Пример 4. Из урны, содержащей п белых и тп черных шаров, извлекают без возвращения пару шаров. Какова вероятность извлечь вторым черный шар, если известно, что первым был извлечен черный? •4 Очевидно, что если первым был извлечен черный шар, то в урне осталось всего п+тп— 1 шаров, тп-\ среди которых черных m — 1. Поэтому искомая вероятность равна . ь» п + m — 1 7) Под запасом исходов мы понимаем здесь количество исходов в схеме случаев либо меру (длину, площадь, объем) соответствующего множества исходов в схеме геометрических вероятностей. 8^ В этом случае говорят, что событие А подчинено событию В и записывают это так: AD В.
14 . Глава XXXVII. Элементарные соображения 0,5 1 х Рис.4. Случайный выбор точки из квадрата Пример 5. Эксперимент состоит в случайном выборе точки из ква- у драта К = {(х,у): 0 ^ х,у ^ 1}. Найти вероятность того, что первая координата точки не превышает 0,5, если известно, что вы- . брана точка, лежащая выше биссектрисы первого и третьего коор- координатных углов (рис. 4). < Из рисунка легко усмотреть, что вероятность события В = {выбрана точка, лежащая выше биссектрисы} равна 0,5, а вероят- вероятность совместного осуществления событий В и А = {х ^ 0,5} — 3/8. Отсюда для искомой вероятности получаем:Р(.41 В) = 3/4. > Понятие условной вероятности позволяет ввести так- также количественную меру, характеризующую степень вли- q яния одного из событий на другое. Будем говорить, что событие А не зависит от собы- события В, если осуществление события А не меняет веро- вероятности осуществления события В, т. е. если условная вероятность Р (А | В) совпадает с безусловной Р (А): Р(А\В) = Р(А), Р(В)^0. В противном случае будем говорить, что событие А зависит от В. Сразу же отметим, что понятия зависимости-независимости, несмотря на явную несимметричность определения, носят взаимный характер — если событие А зависит (не зависит) от события В, то и событие В зависит (не зависит) от события А. < Действительно, пусть событие А не зависит от события В. Рассмотрим но, в силу независимости, Р (А | В) — Р (А), откуда и следует независимость В от А. > В случае независимых событий правило умножения вероятностей принимает осо- особенно простой вид: вероятность совместного осуществления двух событий равна произ- произведению их вероятностей: Р(АВ) = Р(А)Р(В). E) Соотношение E) может быть принято в качестве определения независимости. Нижеследующие примеры иллюстрируют использование правила умножения при вычислении вероятностей событий. Пример 6. Из урны, содержащей п белых и т черных шаров, извлекают три шара. Какова вероятность того, что среди извлеченных есть хотя бы один белый шар? < Заметим, что интересующее нас событие А противоположно событию — все извлеченные шары черные. В соответствии с принципом дополнительности Р{А) = 1 - Р(А). Вероятность события А найдем, воспользовавшись тем, что А = 1Ч П 2Ч П Зч, где события ц означают, что шар, извлечен- извлеченный 1-м — черный. В соответствии с правилом умножения получаем Р(А) = РCЧ 11Ч П 2Ч)РAЧ П 2Ч) = РAЧ)РBЧ 11Ч)РCЧ 11Ч П 2Ч). Для вероятностей, участвующих в этом соотношении, легко получаем РCЧ|1ЧП2,)= Ш~2 т + п откуда ответ Р{А) = \- т п-\' тп-1 тп + п-2' тп-2 т + п т + п — 1 тп + п-2 Пример 7. В круге радиуса R случайным образом независимо друг от друга выбрано N точек. Найти вероятность того, что расстояние от центра круга до ближайшей из них будет не менее г. < Ясно, что если ближайшая из точек находится от центра на расстоянии не меньшем г, то и все прочие будут находиться от центра на не меньшем расстоянии.
§3. Условные вероятности. Независимость Вероятность того, что случайная в круге точка находится от центра на расстоянии не меньшем г, дается отношением 11 1 жк — ят г В соответствии с правилом умножения E), искомая вероятность равна ( r2\N >rnd2>rn...dN ^r) = P(d] ^r)...P(dN ^ г) = (l-^jl •> Пример 8. Некто забыл последнюю цифру номера телефона и набирает ее наугад. Какова вероятность того, что он дозвонится до нужного абонента не более чем за три попытки? < Воспользуемся принципом дополнительности — противоположным рассматриваемому собы- событию А будет событие ~А, состоящее в том, что первые три попытки дозвониться до нужного абонента оказались безуспешными. Последовательные попытки дозаониться до нужного абонента А\, А2, Аз — зависимые события, так как однажды набранная и не принесшая успеха цифра в дальнейшем уже не на- набирается. Применим прааило умножения D): Для сомножителей очевидно имеем Отсюда 4) и для искомой вероятности получаем Р(А) = 1 - Р(А) = 0,3. > Пример 99). Исследовать связь между темным цветом глаз у отца (событие То) и сына (событие Тс) на основании следующих данных, полученных при переписи населения Англии и Уэльса в 1891 году. Темноглазые отцы и темноглазые сыновья (ТОТС) составляли 5% среди всех обследованных, тем- темноглазые отцы и светлоглазые сыновья (ТОТС) — 7,9%, светлоглазые отцы и темноглазые сыновья (ТОТС) — 8,9%, светлоглазые отцы и светлоглазые сыновья {ТОТС) — 78,2%. < Для оценки исследуемой связи найдем условные вероятности Р(ТС | То) и Р(ТС \ То) и сравним их с соответствующей безусловной Р(ТС). По определению имеем т) - р(ТоТс) Условия задачи дают основания для следующей оценки вероятностей' ' Р(ТОТС) = 0,05, Р(ТОТС) = 0,079, Р(ТОТС) = 0,089, Р(ТОТС) = 0,782. Поскольку очевидно, что ТОТС + ТОТС = То, постольку Р(Т0) = Р(ТОТС) + Р(ТОТС) = 0,129. Отсюда В то же время ТОТС + ТОТС - Тс и Р(ТС) - Р(ТОТС) + Р(Т0Те) - 0,139. Сравнивая значения условной и безусловной вероятностей, делаем заключение о наличии связи между темным цветом глаз у отца и темным цветом глаз у сына — у темноглазых отцов темноглазые сыновья встречаются почти втрое чаще, чем вообще среди обследованных. Заметим, между_прочим, что светлоглазые сыновья у темно- темноглазых отцов встречаются примерно а 6 случаях из 10 {Р(ТС |Го) = 1 - Р(Те \То) — 0,6124). Подсчитаем теперь вероятность Р(ТС\ТО). Рассуждения, аналогичные вышеприведенным, дают: =Щ^ =о,Ю22. Заключаем, что светлоглазые отцы, вообще говоря, могут иметь темноглазых сыновей, однако значи- значительно реже, чем светлоглазых — примерно в одном случае из 10 у светлоглазых отцов темноглазые сыновья и, соответственно, в 9 случаях из 10 — светлоглазые. > Задача заимствована из задачника Л. Д. Мешалкина. Как обычно, полагаем вероятность пропорциональной запасу случаев.
16 . Глава XXXVII. Элементарные соображения §4. Формула полной вероятности Введенные в предыдущем разделе понятия условной вероятности и независимости событий позволяют получить простое соотношение, облегчающее вычисление веро- вероятностей в многоальтернативных ситуациях — когда событие, вероятность которого отыскивается, может происходить совместно с другими событиями, относительно ко- которых подсчет вероятностей интересующего нас события оказывается по каким-то причинам проще. Это соотношение носит название формулы полной вероятности. Пусть события Н], Н2,... , Hn имеют ненулевую вероятность, несовместны и вме- вместе исчерпывают все возможные исходы эксперимента: Я, П Я, = 0, ^j, Я, + Я2 + ... + HN = п. Совокупность событий, обладающих перечислен- перечисленными свойствами, задает альтернативное разбие- разбиение множества всех исходов эксперимента и обыч- обычно называется полной группой несовместных со- событий. Если А — некоторое событие, то очевидно, что разбиение эксперимента, задаваемое полной группой событий Я,, г = 1,... , JV, задает и раз- разбиение множества исходов, образующих собы- событие А (рис. 5): А = АНХ + АН2 AHN, Рис 5 Разбиение полной системой не- несовместных событий (при этом, конечно, некоторые слагаемые в при- приведенной сумме могут оказаться невозможными событиями). Поскольку события Я,, г — 1, ... , N — несовместны, то и события AHt, г — 1,... , N — также несовместны, и по правилу сложения заключаем, что Р(А) = Р(АН{) + Р(АН2) + ... + P(AHN). Правило же умножения D) позволяет вычислить каждое из слагаемых P(AHt) = P(A\H,)P(Ht), i = l,2,...,N. Объединяя два последних соотношения, получаем искомую формулу P(A) = P(A\Hl)P(Hl)+P(A)H2)P(H2) + ...+P(A\HN)P(HN). F) Пример 1. На книжной полке стоит два десятка книг, из которых 4 уже прочитаны хозяином, а оставши- оставшиеся еще нет Хозяин выбирает случайным образом книгу и читает (или перечитывает) ее, после чего ставит обратно на полку После этого он выбирает наугад очередную книгу. Какова вероятность того, что вновь выбранная книга еще не была прочитана? ¦4 Рассуждения выглядят следующим образом пусть Н\ — событие, состоящее в том, что первая книга читанная, #2 — нечитанная, А — вновь выбранная книга еще не была прочитана Легко установить, что имеют место следующие соотношения 16 4 20 вероятности дает Р(Л) = 4 5 4 5' 1 5' 1 '5Л Р(Л|Я2) Р(Н2) 3 4 19 h4'5~25 15 ~ 20 16 ~ 20 . > 3 4 = 5'
§ 4. Основные формулы 17 Пример 2. На перегоне между двумя остановками в автобусе едут 3 пассажира, каждый из которых, независимо от прочих, с вероятностью 0,1 покидает автобус на ближайшей остановке. На этой оста- остановке ожидают транспорт 3 пассажира, каждый из которых, независимо от прочих ожидающих, садится в подошедший автобус с вероятностью 0,3. Какова вероятность того, что после отправления с этой остановки количество пассажиров в салоне автобуса не изменится? 4 Очевидно, что количество пассажиров в салоне автобуса останется неизменным, если количе- количество вышедших будет равно количеству вошедших. Пусть события Но, Н\, Н2, Нт, состоят соответственно в том, что в автобус не сел никто, сел ровно один, два или три пассажира, событие А — количество пассажиров в салоне автобуса не изменилось. По формуле полной вероятности получаем Учитывая независимость посадки пассажиров в автобус, легко находим Р(Но) = A - 0,3K = @,7K = 0,343, Р(Н\) = 3A - 0,3J0,3 = 0,441, Р(Н2) = 3A - 0,3H,32 = 0,189, Р(Я3) = 0,33 = 0,027. Заметим, что условные вероятности P(A\Hi) есть вероятности того, что из автобуса вышло на оста- остановке ровно г пассажиров. Р{А\Щ) = A - 0,1K = 0,93 = 0,729, Р{А\Н\) = 3A - 0,1J0,1 = 0,243, Р(А\Н2) = 3A - 0,1H,12 = 0,027, Р(А\Н3) = 0,13 = 0,001. Окончательно Р(А) = 0,729 • 0,343 + 0,243 • 0,441 + 0,027 • 0,189 + 0,001 • 0,027 и 0,36. > Формула полной вероятности вместе с формулой условной вероятности позволяет выносить некие суждения о «правдоподобности» гипотез: Если событие А может происходить в эксперименте совместно с одним из аль- альтернативных событий Я,, г = 1, 2, ... , п, и в результате эксперимента это событие осуществилось, то можно попытаться ответить на вопрос — с каким именно из со- событий Hi оно произошло вместе. Для этого оценим условную вероятность события (гипотезы) Hi при условии, что событие А реализовалось: P(Af)Hi) Р(ЩА) = Р(А) В соответствии с правилом умножения, вероятность, стоящая в числителе, дается выражением Р(А П Hi) = Р(А\Щ)Р(Нг), а стоящая в знаменателе может быть подсчитана с помощью формулы полной вероятности F), что дает Р(А\В{)Р(В,) _ Р(А\В,)Р(В{) р(А) ~ j;Р{АШ.)Р{н.у Сравнивая вероятности Р(Я, |Л) для различных значений г, будем считать ту из ги- гипотез наиболее вероятной, для которой эта вероятность наибольшая. Формула G) называется формулой Бейеса, вероятности P(Hj) — априорными, т. е. доопытными вероятностями, вероятности P(Hj\A) — апостериорными, т. е. послео- пытными вероятностями. Пример 3. Из урны, в которой находится 4 белых и 6 черных физически идентичных шаров, извлекли наугад один швр и положили его в урну, содержащую 5 белых и 4 черных шаров. Случайно извлеченный из второй урны шар оказался черным. Что более вероятно — из первой урны был извлечен черный шар или белый? ^ Пусть событие Щ состоит в том, что из первой урны извлечен белый шар, Нч — из первой урны извлечен черный шар, Ч — из второй урны извлечен черный шар. Очевидно, что
18 Глава XXXVII. Элементарные соображения Для оценки апостериорной вероятности Р(Щ\Ч) воспользуемся формулой G): ч)-р(ч|Яб)р(Яб)-16 ч) Полученный результат позволяет считать гипотезу о том, что из первой урны был извлечен белый шар менее предпочтительной в сравнении с гипотезой, предполагающей извлечение из первой урны черного шара. > Для содержательного заключения о правдоподобности той или иной гипотезы важ- важно, чтобы рассматриваемые события были действительно случайными в контексте рас- рассматриваемых проблем. В противном случае выводы могут оказаться неадекватными реальному положению дел. Пример 4. В одном из телевизионных шоу ведущий предлагает игроку выбрать один из стоящих пе- перед ним ларцов, предупреждая, что только в одном из ларцов заключен ценный приз (скажем, ключи от автомобиля). После того как игрок произвел выбор, ведущий открывает один из оставшихся ларцов и, демонстрируя, что в нем ничего нет, предлагает игроку еще раз подумать и, если захочется, изме- изменить свое решение — выбрать оставшийся ларец, вместо того, который был выбран первоначально. Имеет ли смысл игроку менять свое решение? ^ Ответ на вопрос задачи зависит от того, случаен или нет выбор ведущим одного из ларцов для демонстрации его содержимого. !. Пусть выбор ведущего случаен. Обозначим через Н\ событие, состоящее в том, что ларец, выбранный игроком, содержит приз, через Иг — что он приза не содержит, через А — что ларец, выбранный ведущим, пуст. Тогда по формуле полной вероятности заключаем, что Р(А) = Р{А\Н{)Р(Н{) + Р(А\Нг)Р{Нг) = 1.1 + 1 . ? = В. А формула Бейеса G) дает следующую оценку, например, для вероятности Р(Н\\А): и, следовательно, в этом случае игроку нет нужды менять свой выбор, так как шансы его на получение приза одинаковы, остановится ли он на своем первоначальном выборе или сменит его. 2. Пусть выбор ведущего не случаен, и он, зная где лежит приз, всегда открывает для всеоб- всеобщего обозрения ларец, приза не содержащий, т. е. событие А не является случайным и происходит с вероятностью 1 В этом случае по формуле условной вероятности заключаем, что и в двух случаях из трех игроку выгоднее изменить свой выбор, чем настаивать на первоначальном"). Впрочем, формальное использование формулы Бейеса дает тот же результат: P(A\Hi)P(Hi) 1/3 1 P(Ht\A) = Р(А) 1
Глава XXXVIII СЛУЧАЙНЫЕ СОБЫТИЯ ВЕРОЯТНОСТЬ §1. Эксперимент. Исходы эксперимента. События 1.1. Эксперимент. Элементарные исходы эксперимента Всякое изучаемое в дальнейшем явление будем называть экспериментом. Для даль- дальнейшего не важна его содержательная сторона эксперимента (предметом рассмотре- рассмотрения может быть физическое, химическое, социальное или иное явление), а важно то обстоятельство, что комплекс условий, обуславливающий рассматриваемое явление, может быть (по крайней мере, в принципе) воспроизведен сколько угодно раз. Важно также, что a priori возможно перечисление всех событий, которые могут наступить в случае осуществления указанного выше комплекса условий. В отдельных случаях эти события могут наступать или не наступать в разных комбинациях. Во множество исхо- исходов эксперимента включаются все возможные варианты появлений или непоявлений рассматриваемых событий. Таким образом, с каждым экспериментом мы связываем список всех заведомо возможных в этом эксперименте событий, что дает основание для следующего определения. Определение. Пространством элементарных исходов эксперимента будем называть про- произвольное множество п: п = М. Элементы ш множества п будем называть элементарными случайными событиями или элементарными исходами, а само п — пространством элементарных случайныхсобытий. При построении пространства элементарных событий, описывающего конкрет- конкретный эксперимент, в список элементарных исходов п включают элементарные исхо- исходы ш, удовлетворяющие требованиям полноты и несовместности. Первое из требова- требований означает, что исходы, включенные в список, заведомо исчерпывают все возмож- возможные при однократном проведении эксперимента события; второе — что при одно- однократном проведении эксперимента может произойти один и только один из исходов, включенных в список. Конечно, при составлении списка п прибегают к разумной степени идеализации реального эксперимента. Пример 1. Пусть рассматриваемый эксперимент состоит в подбрасывании монеты. Пренебрегая воз- возможностью того, что в итоге монета закатится в щель, встанет на ребро и т.п., выделим следующие два возможных исхода: Р — «монета упала вверх решкой», Г — «монета упала вверх гербом». Про- Пространство элементарных исходов рассматриваемого эксперимента состоит из двух элементов, П = {Г; Р}.
20 Глава XXXVIII. Случайные события. Вероятность Пример 2. В урне находится т черных и п белых шаров. Эксперимент состоит в извлечении наудачу од- одного шара из урны. Один из вариантов пространства П для этого эксперимента может быть следующим: в список п включены два события Б — извлеченный шар белый и Ч — извлеченный шар черный, п = {Ъ,Ч}. Пример 3. Из колоды игральных карт E2 листа четырех мастей: ф — пики, 9 — черви, О — бубны и ЛЬ — трефы, в каждой масти 13 листов — 1,2,... , Валет, Дама, Король; карта единичного достоин- достоинства носит название Туз) извлекают одну карту. Возможные списки п при описании этого эксперимента могут быть следующими: П, = {ф, <?, О, *}; П2 = {1,2,3,...,10,В,Д,К}; из = {Кт, Нкт}; п4 = {Кр, Чр}; П5 = {1ф,..., Кф, 19,..., КФ, 10, ..., КО, 1*, ..., К*}. Здесь приняты следующие обозначения: ф — извлечена карта масти пик; аналогично 9, 0. ¦'. 1, 2,..., 10, В, Д, К — извлечена карта соответствующего достоинства; (скажем, 3 — извлечена тройка (пик, червей, бубей или треф)); Кт — извлечена картинка (к картинкам относятся карты Туз, Валет, Дама, Король); Нкт — извлечена некартинка (карта достоинством от 2 до 10); Кр — извлечена карта красной масти (черви или бубны); Чр — извлечена карта черной масти (пики или трефы). Пример 4. Монету подбрасывают в одних и тех же условиях до тех пор, пока не появится герб. Про- Пространство элементарных исходов этого эксперимента может быть задано следующим (бесконечным) списком: п = {Г; РГ; РРГ; ...; РР^__Р Г; ... }; п-1 здесь исход, обозначенный как РР ... Р Г, п-1 описывает ситуацию, когда впервые герб появился при n-м бросании монеты. Пример 5. Эксперимент состоит в наблюдении за временем безотказной работы некоторого агрегата. Идеализируя ситуацию, предположим, что мы умеем измерять любые, сколь угодно малые промежутки времени (в действительности, конечно, мы в состоянии измерять длительности только с точностью до некоторого «кванта» времени At). Тогда пространство элементарных исходов, отвечающее рассматри- рассматриваемому эксперименту, может быть, например, задано следующим (континуальным!) списком: п = {ш: 0 ^ ш < +оо}. Здесь исход ш G [0, +оо) описывает ситуацию, когда агрегат вышел из строя в момент to +<*>. где to — время начала наблюдения. Как показывают приведенные примеры, в зависимости от потребностей исследо- исследователя один и тот же эксперимент может быть описан различными пространствами элементарных исходов. Принятая выше схема описания реального эксперимента позволяет отождествлять однократное проведение эксперимента с выбором одного из элементов списка п. 1.2. События Следующее понятие, которое мы рассмотрим, это понятие события. Событием будем называть любое подмножество А множества элементарных исхо- исходов п. Мы говорим, что в результате однократного проведения эксперимента событие А осуществилось, если был выбран элемент ш € А. Элементарный исход ш € А бу- будем называть благоприятствующим осуществлению события А. Достоверное событие происходит при каждом осуществлении эксперимента, а невозможное событие не про- происходит ни при каком осуществлении эксперимента. Все остальные события с этой
§ 1. Эксперимент. Исходы эксперимента. События 21 точки зрения занимают промежуточное положение между невозможным и достовер- достоверным. Невозможное событие будем обозначать символом 0. Пример 6. Опишем эксперимент П, состоящий в извлечении одной карты из полной E2 листа) колоды игральных карт списком П5 = {!¦,..., К*, 19,...,К9, 10,-.., КО, I*,..., К*} (см. пример 3). Следующие подмножества множества п$ образуют события в рассматриваемом экспе- эксперименте: Кт = {«извлечена карта-картинка»} = = {В*, ВФ, ВО, В*, Д*, ДФ, ДО, Д+, К*, К9, КО, К*, Т*, ТФ, ТО, Т*}; Кр = {«извлечена карта красной масти»} = {19,..., Кф, 10, • • •, КО}; 6 = {«извлечена карта масти пик»} = {1^,..., Пример 7. Пусть эксперимент п состоит в трехкратном подбрасывании монеты. Опишем его следующим списком п = {ГГГ, ГГР, ГРГ, РГГ, ГРР, РГР, РРГ, РРР}. Примерами событий в этом эксперименте могут быть следующие: = {«герб выпал не менее 2 раз»} = {ГГГ, ГГР, РГГ, ГРГ}; .4=2 = {«герб выпал ровно 2 раза»} = {ГГР, РГГ, ГРГ}; .4=0 = {«герб не выпал ни разу»} = {РРР}. Легко сообразить, что в случае, когда множество исходов эксперимента Q конечно и содержит N элементов, множество всех возможных событий также конечно и содержит 2N элементов. < Действительно, событий, состоящих ровно из к «благоприятствующих» элементар- элементарных исходов будет С#, к = 0, 1, 2, ... , N. Поэтому общее число всех возможных событий дается равенством Пример 8. Монету бросают до первого появления герба. Пространство элементарных событий опишем списком (см. пример 4) П = {Г,РГ,...,РР...РГ,...}. В рассматриваемом эксперименте можно наблюдать, например, следующие события: -4^: ю = {«герб появился до одиннадцатого броска»} = {Г, РГ, РРГ,..., РР ... Р Г}; 9 .4=10 = {«герб появился при десятом испытании»} = {РР ... Р Г}; 9 ¦4>ю = {«герб не появился ранее одиннадцатого испытания»} = {РР ... Р Г, РР ... PjiГ,... }; ю = {«герб появился между четвертым и десятым испытаниями»} = = {РРРГ, РРРРГ,... , РР ... Р Г}. 9
22 Глава XXXVIII. Случайные события. Вероятность а) 10 t Пример 9. Известно, что автобус приходит к остановке в некоторый момент времени t, заключенный между 9 и 10 часами утра Студент выходит на остановку в течение этого же промежутка времени. Эксперимент состоит в наблюдении за временем прихода к остановке автобуса и студента. Опишем множество элементарных исходов следующим списком ft = {(t, т): 9 < t ^ 10; 9 ^ т ^ 10}. Здесь t — момент прибытия автобуса к остановке, т — момент прибытия студента. Множество п представляет совокупность всех упорядоченных пар чисел (t, т), заключенных в промежутке от 9 до 10 каждое Если откладывать t по оси абсцисс, а т — по оси ординат, то п будет соответствовать множеству точек квадрата на плоскости (t, т) (рис. 1 а). Рассмотрим событие А = {«Студент пришел на остановку не позднее, чем туда прибыл автобус»} = {(t, т): т ^ t}. Это событие может быть описано теми точками квадрата, в которых т < t (рис. 1 б). Пример 10. Пусть множество ш — время безотказной работы агрегата из примера 5. Множество п = {ш- 0 ^ ш < +оо} может быть отождествлено с множеством точек числовой полупрямой. Событие А = {«агрегат вышел из строя в промежутке времени от то до т\»} = {ш: tq ^ ш ^ т\} изобразится отрезком этой полупрямой Для дальнейшего важным является то обстоятельство, что уже в случае конти- континуальных пространств элементарных событий запас возможных событий становится необозримым. Причем среди них могут быть и весьма экзотические. Пример 11. Канторово множество. Приведем пример экзотического множества, которое обладает на первый взгляд противоречивыми свойствами Рассмотрим отрезок [0, 1] Разобьем его на три равные части и удалим средний интервал, т е интервал A/3, 2/3). У нас останется два отрезка — [0, 1/3] и [2/3, 1] С каждым из этих отрезков поступим аналогично: разделим на три равные части и удалим средний интервал После этого останется четыре отрезка С каждым из них поступим так же — по- получится восемь отрезков, и так далее до бесконечности. То, что останется после бесконечного числа выбрасываний, и есть канторово множество (на рис. 2 показана схема его построения). В него входят концы выбрасываемых интервалов, но интересно, что входит и еще много других точек Множество концов выбрасываемых интервалов счетно, в то время как канторово множество имеет мощность кон- континуума. Действительно, запишем числа из интервала [0, 1] в троичной системе счисления, т. е в виде 0, а,а2 ...а„ ..., A) где цифра а,, стоящая в г-й позиции после запятой, может быть нулем, единицей или двойкой. Выбра- Выбрасываемые интервалы состоят из точек, соответствующих числам вида A), в записи которых встречается хотя бы одна 1 Соответственно, канторово множество состоит из всех точек, описываемых числами ви- вида A), где каждое а, равно или 0, или 2. Следовательно, если мы сопоставим точке 0, ct\ct2 ... ап ... в троичной системе точку 0, /?i/?2 • • /?п • ¦ • в двоичной системе, где /?, = а,/2, то получим взаимно однозначное отображение канторова множества на весь отрезок [0, 1], и, значит, мощность канторо- ва множества оказывается равной континууму Тем самым, в смысле мощности канторово множество «большое» Однако оно «маленькое» в смысле «размера» — его мера равна 0 Действительно, под-
§ 2. Алгебра событий 23 i i О 1 О 1 к- О 1 О 1 О 1 О 1 Рис.2 считаем сумму длин выброшенных интервалов; она оказывается равной единице, т.е. длине всего отрезка [0, 1]: 1 + ? + ± + + —+ =-l/L- = i Назовем числовое множество нигде не плотным, если в любом интервале можно указать отрезок, не содержащий ни одной точки данного множества. Интуитивно свойство «нигде-не-плотности» означа- означает, что множество очень «разрежено» (таким будет, например, множество, состоящее из изолированных точек). Нигде не плотным будет также множество, содержащее только конечное число неизолирован- неизолированных точек. Назовем множество совершенным, если у него вообще нет изолированных точек. Такое множество должно быть «густым», а не «разреженным»; например, отрезок есть совершенное множе- множество. Кажется невероятным, чтобы некоторое множество было бы нигде не плотным и совершенным одновременно, и тем не менее канторово множество именно таково: оно нигде не плотно, т. к. в лю- любом интервале найдется точка, в троичной записи которой есть 1, а значит, и целый выбрасываемый интервал, и оно совершенно, т. к. в любой окрестности точки, в троичной записи которой есть только О и 2, найдутся другие точки с тем же свойством, т. е. изолированных точек в канторовом множестве нет. Перечислим еще раз рассмотренные свойства канторова множества: 1. Мощность канторова множества равна континууму. 2. Мера канторова множества равна нулю. 3. Канторово множество нигде не плотно. 4. Канторово множество совершенно. Интуитивно кажется, что как первые два свойства, так и последние два противоречат друг другу. § 2. Алгебра событий 2.1. Диаграммы Эйлера—Венна Пусть п — пространство элементарных исходов некоторого эксперимента, А, В, С,... — события, среди которых п — достоверное событие и 0 — невозможное со- событие. Выше мы уже отмечали, что каждое событие является подмножеством множе- множества п, а осуществление события А в эксперименте мы понимаем как принадлежность реализовавшегося в данном испытании элементарного исхода ш множеству А: . Г ш G А — событие А произошло, \ ш ? А — событие А произошло, событие А не произошло. В дальнейшем это соглашение будем иллюстрировать следующим образом: простран- пространство элементарных исходов п (независимо от природы составляющих его элементов
24 Глава XXXVIII. Случайные события. Вероятность Рис 3 и мощности) будем изображать прямоугольником; эле- элементарные случайные события—точками прямоугольни- прямоугольника; события — подмножествами прямоугольника (рис. 3). В этой модели достоверное событие — множество всех точек прямоугольника; невозможное событие — пустое подмножество; испытание — выбор одной (ровно од- одной!) точки из прямоугольника, представляющей реали- реализовавшееся в данном испытании элементарное случайное событие Такие иллюстрации носят название диаграмм Эйлера—Вен на. 2.2. Совмещение событий Определение. Совмещением двух событий A G Г2 и В G Г2 назовем событие, состоящее из тех и только из тех исходов, которые благоприятствуют событиям А и В одновременно. Обозначение: An В = АВ (А «и» В). Ясно, что совмещение событий А и В имеет место (происходит) только тогда, когда события А и В происходят одновременно, т.е. элементарный исход ш € fi, реали- реализовавшийся в данном испытании, принадлежит одновременно и событию А и собы- событию В. Если у событий А и В нет общих элементарных исходов, они называются несовместными. Это обстоятельство будем обозначать так: АВ = А п В = 0 . Совмещение любого числа событий можно рассматривать аналогично. Пример 1 - О — эксперимент, состоящий в извлечении карты из полной колоды E2 листа) игральных карт П = {1*,..., К*, 19,..., К9, 10, - • •, КО, 14», - - -, К*}; А = {«извлечен туз»} = {14>, 19, 10, 14*}, В = {«извлечена карта черной масти»} = {14>,..., К4>, 14*, • • •, К4*}; АВ = {«извлечен туз черной масти»} = {!¦, 14*}- Пример 2. Проверяется партия телевизоров, содержащая 10 образцов Событие Л, 1 = 1,.. ,Ю состоит в том, что 1-й телевизор дефектен Событие ю f] Аг = А\А2 .. — в том, что все проверенные образцы дефектны о- Пример3. Релейная схема составлена из агрегатов Аи Ai, Лз, At, и устроена так, как показано на рис. 4 Схе- Схема выходит из строя за время Т при одновременном выходе из строя за это время всех агрегатов Пусть Аг, г = 1, 2, 3,4, — событие, состоящее в том, что г-й агрегат вышел из строя Тогда событие А — «схе- «схема вышла из строя» — является совмещением собы- событий Аг А = Рис.4
§2. Алгебра событий 25 Пример 4. Релейная схема составлена из агрегатов В,, 2?2, Вт,, Я» и устроена, как показано на рис. 5. Схема работает безотказно в течение времени Т, если все агрегаты в течение этого времени работают безотказно. Пусть В}, j = 1, 2, 3, 4, — событие, состоящее в том, что j-й агрегат в течение времени Т не вышел из строя. Тогда совмещением событий В} будет событие В — «схема работает безотказно в течение времени Т». вА Рис.5 Совместные события Несовместные события Рис.6 С использованием диафамм Эйлера—Венна операцию совмещения событий мож- можно изобразить так, как показано на рис. 6. Отметим два очевидных свойства операции совмещения: 1. А П 0 = 0; 2. АПп = А. 2.3. Подчиненность событий Будем говорить, что событие В подчинено событию А и за- записывать это отношение как А С В, если осуществление события А влечет за собой осуще- осуществление события В, т.е. все исходы А являются исхо- исходами В, но у В возможны исходы, не являющиеся ис- Рис 7 ходами А (рис. 7). По определению положим также, что 0 С А для любого А. Отметим, что события, происходящие в эксперименте п, упорядочены лишь ча- частично — отношение подчиненности определено не для любой пары событий. Имеют место следующие соотношения: 1. УЛ: А С П. 2. А П В С А, А П В С В. 3. С С АВ&СС А, ССВ. 4. А С В, В С С => А С С. Свойства 1 и 2 очевидным образом следуют из определений. Свойства 3 и 4 легко усмотреть из диафамм Эйлера—Венна, приведенных на рис. 8. Пример 5. В эксперименте с извлечением карты из полной колоды игральных карт E2 листа) событие В = {«извлечена карта-картинка»} подчинено событию А = {«извлечен король»}. А С В. Пример 6. В этом же эксперименте события В = {«извлечена карта-картинка»} и С = {«извлечена карта черной масти»} не состоят друг с другом в отношении подчиненности.
26. . Глава XXXVIII. Случайные события. Вероятность CQAB о ССЛ и CQB (АСВ)П(ВСС) =>ЛСС Рис.8 2.4. Сумма событий Определение. Суммой двух событий A G п и В € элементарных исходов, входящих в А или в В. Обозначение: Аи В (А «или» назовем событие, состоящее из Событие, являющееся суммой событий А и В, происходит, если произошло по крайней мере одно из этих событий — или произошло А, или произошло В, или оба этих события произошли вместе. Диаграммы, иллюстрирующие эту операцию над событиями, приведены на рис. 9. Сумма произвольного числа событий определяется аналогично. В случае несо- несовместности событий А и В вместо знака объединения «U» часто употребляют знак суммы «+»(рис. 10). Отметим следующие соотношения: 1. A U0 = А. 2. A U п - п. 3. А П (В U С) = (А П В) U (А П С). 4. Л U (В П С) = (A U В) n (A U С). Последние два из них — свойства дистрибутивности умножения относительно сло- сложения и сложения относительно умножения—нуждаются в доказательстве. Покажем, как это делается, на примере соотношения 4. < Событие А и (В П С) состоит из тех элементарных исходов, которые входят или в А, или в В ПС, или в оба этих события одновременно (рис. 11). Следовательно, событие A U (В П С) происходит, когда происходит либо событие А, либо события В и С одновременно. Но если произошло А, то произошло иАиВиАиС.а, значит, они оба, т. е. (А и В) П (А и С) Э А. Если же осуществилось В П С, то осуществились Аи В и АиС вместе: (В П С) С (Л и В) П (Л U С). Следовательно, A U (В Г) С) С (A U В) Г) (А и С). С другой стороны (рис. 12), события (Аи В) и (A U С) происходят одновременно, если происходит событие А, либо, если А не произошло, то одновременно должны произойти В и С. Следовательно, (A U В) n (A U С) С A U (В П С). Вместе с полученным выше отношением подчиненности это дает искомое утверж- утверждение. >
§2. Алгебра событий. Рис.9 Рис. 10 Q Рис 11 Рис 12
28. . Глава XXXVIII. Случайные события. Вероятность Пример 7. Пусть в эксперименте с извлечением карты из полной коло- колоды E2 листа) игральных карт событие А — {«извлечена карта черной масти»}, а событие В = {«извлечена карта-картинка»}, тогда их сумма A U В — событие, состоящее в том, что извлечена карта черной масти или красная картинка Пример 8. Релейная схема составлена из агрегатов А], А2, А$, В\, Bi, „_, как показано на рис 13 Пусть события А}, Вг, j = 1, 2, 3, t = 1,2, состоят в том, что одноименные агрегаты работают безотказно в тече- течение времени Т, a U — событие, состоящее в том, что схема работает безотказно в течение времени Т Тогда И А2 U 2.5. Противоположные события. Тождества де Моргана я. — А2 — В2 Рис. 13 Определение. Событием, противоположным событию А, назовем событие, состоящее из тех исходов п, которые не входят в А. Обозначение: А («не Л»). Событие «не А» происходит всегда, когда не происходит А (рис. 14). Q "¦Ч А Ж" Рис 14 Ясно, что Кроме того, = 0, 0 = = А. Имеют место следующие тождества (тождества де Моргана): АиВ = АПВ, АГ)В = АиВ, которые легко обобщаются на случай конечного числа слагаемых (сомножителей) п и А,= п ,0,л" п п Аг = п А,. Доказательство тождеств де Моргана легко усмотреть из рис. 15 и 16 соответственно.
§2. Алгебра событий. 29 <\ ¦¦¦ ( Рис 15 Рис 16
30 . Глава XXXVIII. Случайные события. Вероятность Пример 9. Релейная схема составлена из эле- элементов А], А2, ¦ ¦¦, Ап, как показано на рис. 17. Схема выходит из строя за время Т, если за с это время выйдет из строя по крайней мере один из элементов Aj, j = 1,2,... ,п. Обозначим теми же буквами Aj, j = 1, 2,... ,п, события, состоящие в том, что j-й элемент схемы за время Т из строя не вышел. Тогда событие U, состоящее в том, что схема не выйдет из строя за время Т, описывается соотноше- соотношением U = A]A2...An, а событие U — «схема выйдет из строя за время Т» — будет выглядеть так Рис. 17 U = Ах U А2 U ... U Ап = Ах А2 ... Ап. Пример 10. Релейная схема составлена из элементов А\, А2 Ап так, как показано на рис. 18. Схе- Схема выходит из строя за время Т, если за это время выйдут из строя все элементы Aj, j = 1,2,... ,п. Пусть события U и Aj — те же, как и в примере 9. Тогда имеем U = Л, U А2 1} А3 U ... U Ап, U = 17^2 • • • Зп = A| U A2U... U А„. А2 1 I Аъ ... Ап Рис. 18 2.6. Разность событий Определение. Разностью событий A G п и В G п будем называть событие, состоящее из всех тех элементарных исходов, которые входят в Л, но не входят в В. Обозначение: А \ В (А «без» В). Это событие происходит только тогда, когда происходит Л, но не происходит В, т.е. Л\Б = ЛПБ (рис. 19). Ясно, что (рис. 20) А = (Л \ В) + А П Б, (А\В)Г)АВ = 0,
§3. Вероятность. Случайные события. .31 Рис. 19 Рис.20 В заключение этого краткого обзора правил действий над событиями отметим, что если А\ Э А2 2 ... D Ап 2 ¦ ¦ ¦ — бесконечная последовательность подчиненных событий, то существует собы- событие Л,™, которому подчинены все Aj 00 -^¦min = [ I ¦"¦]• Это событие происходит тогда, когда одновременно происходят все события Aj. Этот факт будем записывать так Если же А\ С А2 С ... С Ап С ... , то существует событие Атах, которое подчинено всем Aj 00 ¦"¦max — U ¦"¦]' В этом случае будем использовать также и символ lim Ani A <==> 00 = lim An = U Aj. n->oo §3. Вероятность. Случайные события Пусть п — пространство элементарных исходов некоторого эксперимента п и А — событие. В результате однократного испытания событие А происходит или нет в зави- зависимости от того, принадлежит событию А реализовавшийся в этом испытании исход ш
32 Глава XXXVIII. Случайные события. Вероятность или не принадлежит. Наша ближайшая задача состоит в указании способа числовой оценки правдоподобности осуществления или неосуществления события А в экспе- эксперименте 12. Пусть Р{А} — вещественная числовая функция, приписывающая каждому собы- событию А число — степень его осуществимости в эксперименте п. Опишем предвари- предварительно некоторые интуитивно ясные свойства такой функции. Как говорилось выше, любое событие А (с точки зрения шансов на осуществимость) занимает промежуточное положение между невозможным событием 0, которое не происходит никогда, и досто- достоверным событием п, которое происходит всегда. Разумно считать в связи с этим, что Р{0} ^ Р{А} Припишем невозможному событию оценочное нулевое значение Р{0} = О, а достоверному событию — значение единица Р{П} = 1. Столь же естественно считать, что если событие А влечет за собой событие В (АС В), то Р{А} ^ Р{В}, так как осуществление события А всегда вызывает осуще- осуществление события Б; в то же время возможно осуществление В без осуществления А. Отметим, наконец, еще одно естественное свойство: если А и В — пара несо- несовместных событий, то степень достоверности осуществления события А + В должна быть равна сумме соответствующих оценок для А и для В Р{А + В}=Р{А} + Р{В}. Если бы такая функция Р была бы построена, то она давала бы нам некоторую информацию об осуществимости событий: априорное осуществление события А тем более вероятно, чем больше оценочное значение Р{А} ему приписано; из двух событий заведомо скорее следует ожидать осуществления в эксперименте того, для которого значение Р больше. Ниже мы увидим, что если функцию с указанными свойствами удается построить, то она обязательно имеет очень простой (частотный) смысл (см. Закон больших чисел в форме Бернулли). 3.1. Вероятность события Пусть п — эксперимент и А — событие, которое может происходить в этом экспери- эксперименте. Вероятностью события А будем называть числовую функцию Р{А}, обладаю- обладающую следующими свойствами: 1. Р{А} ^ О, Р{П} = 1 (свойство нормировки); A) {00 ^ 00 U А» \ = 1С Р{АП}, если только Ах Г) Aj = 0 (свойство B) счетной аддитивности). Из определения немедленно следует, что если функция со свойствами A) и B) может быть построена на множестве событий, происходящих в эксперименте п, то она обладает дополнительно следующими свойствами.
§3. Вероятность. Случайные события. 1. Конечная аддитивность .33 Если А П В = 0, то Р(А + В) = Р(А) + Р(В). 2. Правило вычисления вероятности противоположного события Р(А) = 1- C) Поскольку п = А + А, то 3. Монотонность вероятности Если Л С В, то Р{А} ^ Р{В}. D) < Действительно, В = (В \ A) -f- А (рис. 21), при этом (В \ А) П А = 0. По правилу сложения B) имеем Из того, что Р(В \ А) ^ 0, следует искомое. > Рис. 21 4. Правило вычитания вероятностей Рис. 22 Если Л С В, то Р{В \А}= Р{В} - Р{А}. 5. Правило сложения вероятностей Р{А UB}= Р{А} + Р{В} - Р{АВ}. E) F) < Доказательство следует из представления A U В = А + (В \ АВ) (рис.22), где А П (В \ АВ) = 0, АВ С В, к которому нужно только применить свойство конечной аддитивности 1 и правило вычитания вероятностей 4. > 6. Непрерывность вероятности. Пусть А\ С А2 С ... С Ап С ... и 00 lim An = n—»oo n = 0 ¦ n=l Тогда lim n—»oo = 0. G) 2 Зак 244
34 Глава XXXVIII. Случайные события. Вероятность < Положим Aq = п и рассмотрим очевидное тождество Поскольку, как легко проверить, (Лп_, \ЛП)П(Л,_, \AS) = 0, то, применив правило сложения B) к указанному тождеству, получим п-1 »=о где В силу сходимости приведенного выше ряда lim Rn = 0. П->00 Но 00 f откуда lim P(An) = 0. > П00 П->00 Остается установить, можно ли такую функцию определить для всех возможных в эксперименте п событий. 3.2. Вероятность в экспериментах с дискретной структурой Будем называть эксперимент п экспериментом с дискретной структурой или просто дискретным экспериментом, если множество его исходов не более чем счетно, Для дискретных экспериментов рассмотренная выше схема определения вероят- вероятности, как будет сейчас показано, всегда осуществима. Действительно, пусть F — совокупность всех возможных в эксперименте п событий, в которую включены, ко- конечно, и невозможное событие 0, и достоверное п, Пусть р], р2,... , Рп, • •¦ — произвольный счетный набор действительных поло- положительных чисел, таких, что ряд сходится и его сумма равна 1. Положим по определению P{u>j}=Pj, J = l, 2 n,... . (8) Всякое событие А из совокупности F состоит из не более чем счетного числа элемен- элементарных исходов u)f,j = l,2,...,m,...:
§3. Вероятность. Случайные события. 35 Определим его вероятность Р{А} следующей формулой (9) Легко видеть, что при таком способе задания вероятности каждому событию будет приписана вероятность (при помощи равенства (9)), удовлетворяющая требовани- требованиям A) и B). Отметим, что теория вероятностей как математическая дисциплина начиналась с задач, описываемых конечными пространствами элементарных исходов и одним из основных предположений, положенных в основание теории, было пред- предположение о равновозможности всех элементарных исходов: P(u>j)=p Vj = l,2,...,JV. Учитывая требования A) и B), предъявляемые к вероятности, равновозможность эле- элементарных исходов и конечность эксперимента, т. е. Р{п} — ?) P(uj) = N • р = 1, приходим к следующему правилу вычисления вероятностей: Вероятность любого события А равна отношению количества исходов эксперимента п, благоприятствующих осуществлению события А, к общему числу всех элементарных исходов п. Это так называемое классическое определение вероятности. Однако еще раз под- подчеркнем, что приведенное выше правило вычисления вероятностей справедливо лишь в экспериментах с конечным числом равновозможных исходов. В приложениях важнейшим вопросом является вопрос об источнике «начальных» вероятностей р7-, j = 1, 2,... . Теория никаких указаний по этому поводу не дает — «правильным» с точки зрения теории является любой способ задания вероятностей pj, 00 лишь бы выполнялись условия положительности j>j > 0 и нормировки ?) Pj — 1- Дру- J=l roe дело, насколько хорошо тот или иной способ задания вероятностей соответствует содержанию конкретной задачи. Рассмотрим нескольких примеров. Пример 1. Пусть Г2 = {Г,Р} — пространство элементарных исходов эксперимента, связанного с бросанием монеты. Принятое выше определение позволяет приписать исходам Г и Р любые значения р = Р{Г} и q = Р{Р}, лишь бы р + q = 1, р ^ 0, q ^ 0. Однако, когда речь идет о конкретном эксперименте с конкретной монетой, то принятое распределение вероятностей должно соответствовать индивидуальным характеристикам именно этой монеты и этого эксперимента. Например, если монета физически симметрична, то следует ожидать, что в эксперименте шансы на появление исхода Г и исхода Р должны быть одинаковы, т. е. а это немедленно влечет за собой
36 , Глава XXXVIII. Случайные события. Вероятность т. к. р + q = 1. Если же монета несимметрична (например, смещен центр тяжести), то следует ожи- ожидать, что один из двух возможных исходов эксперимента будет появляться чаще другого (та сторона монеты, к которой смещен центр тяжести, будет выпадать реже). В этом случае р Ф q, и следует так задать р и q, чтобы соотношение шансов на появление исхода Г и исхода Р соответствовало обнару- обнаруженной асимметрии. В простейших ситуациях вневероятностные соображения (физическая симметрия эксперимента, равновозможность и т.п.) обычно дают указание на то, как именно следует задавать вероятностные распределения pj. Эти соображения, конечно, не дают ответа на вопрос о соответствии выбранных значений pj конкретной ситуации, а являются лишь наводящими. Для установления аде- адекватности принятой вероятностной модели реальному эксперименту следует прибегнуть к специальным статистическим процедурам, о которых будет сказано ниже. Пример 2. В урне лежит т + п шаров, m — черных, п — белых. Эксперимент состоит в извлечении одного шара из урны. Найти вероятность извлечения черного (белого) шара. 4 1. Предположим, что все шары физически идентичны, тщательно перемешаны и извлекаются «слу- «случайным образом» (последнее предположение является интуитивным предположением о честности экс- экспериментатора и отсутствии закономерностей, по крайней мере осознанных, в очередности извлечения черных и белых шаров). Тогда резонно предполагать, что вероятность извлечения шара фиксированного цвета должна быть пропорциональна количеству шаров данного цвета и Р{ «извлечен белый шар»} _ п Р{«извлечен черный шар»} т Поскольку события Б = {«извлечен белый шар»} и Ч = {«извлечен черный шар»} противоположны (Б = Ч) и несовместны (Б П Ч = 0), имеем Вместе с соотношением, приведенным выше, это дает для искомых вероятностей следующие значения , {} т + п т + п 2. Предположим, что все шары физически идентичны, тщательно перемешаны и извлекаются «слу- «случайным образом». Мысленно перенумеруем все шары и опишем рассматриваемый эксперимент следу- следующим списком элементарных исходов П={и/Б, ...,и/Б,и/,ч,...и/^}, где u/j\ ш? — события, состоящие в извлечении j-ro белого или 1-го черного шара, соответственно. Предположения об идентичности шаров и условиях их извлечения делают разумным предположение о равновозможности всех элементарных исходов в эксперименте Q, P{wf} = P{w?}, Vj = l,2,...,n, i = l,2,...,m. Из условия нормировки J2p{uf) + J2p{u?) = i немедленно следует, что Событие Б = {«извлечен белый шар»} описывается следующим списком благоприятствующих ему элементарных исходов В соответствии с соотношением (9) " т ,_. т + п т + Пример 3. Эксперимент состоит в одновременном бросании п симметричных монет. Найти вероятность того, что ровно на к <С п монетах выпадет герб.
§3. Вероятность. Случайные события 37 •4 Опишем пространство элементарных исходов рассматриваемого эксперимента списком п, соста- составленным из всех упорядоченных наборов символов Г и Р длины п: п = { ГГ ... Г, РГ ... Г, РРГГ ... Г,..., РГГРР...Г,... РР ... Р}. 71 71 71 П 71 Каждый элементарный исход описывает результат одновременного испытания п монет, причем на j-м месте стоит Г или Р (в зависимости от того, гербом или решкой завершилось испытание j-й монеты). Предполагая, что испытания различных монет не оказывают влияния друг на друга, и учитывая симметричность монет, будем считать все исходы равновозможными. Поскольку их всего N = 2", то из правила сложения и условия нормировки вероятности получаем Событие A=k = {«ровно на к монетах выпал герб»} описывается списком, составленным из тех элементарных исходов, которые содержат ровно к симво- символов Г (и, соответственно, п - к символов Р). Например, в эксперименте с 4 монетами А=2 = {ГГРР, ГРГР, ГРРГ, РГРГ, РРГГ, РГГР}. Число способов, которыми можно расставить к символов по п позициям, Сп = С™~*, и есть количество элементарных исходов, содержащих ровно к символов Г, поэтому в соответствии с соотношением (9) t/ — ^n ¦ 2^- > Пример 4. В условиях предыдущего эксперимента найти вероятность того, что не более чем на к моне- монетах выпадет герб. •4 Пусть искомое событие А^. Тогда очевидно, что А^к = -4=0 + -4=1 + • • • + Л=к, и по правилу сложения р{л&) = Е piA-j} = Е cl ¦ ^. > 3.3. Вероятность в экспериментах с недискретной структурой В случае экспериментов, множество исходов которых более чем счетно, реализовать рассмотренную схему построения вероятностей в том виде, как она была описана в п. 3.1, уже нельзя. Дело в том, что требование B) — аддитивности вероятности — делает невозможным приписывание вероятностей абсолютно всем событиям, которые могут происходить в эксперименте. Пример 1. Эксперимент состоит в случайном выборе точки из отрезка [а, 6]сК. Случайность здесь понимается как равновозможность выбора точки и> из любого подотрезка [а, /3], независимо от того, в каком месте отрезка [а, Ь] этот подотрезок расположен. В этой ситуации естественно считать, что вероятность выбора точки из любого подотрезка [а, р\ пропорциональна его длине PW 6 [а,/3]} = ^f Оказывается, однако, что в рассматриваемом случае существуют события (т. е. подмножества множе- множества [а, Ь]), которым не удается разумным образом приписать вероятность так, чтобы она была согла- согласована с определением, принятым выше. Возьмем для определенности а = — 1, Ь = 2, т. е. рассмотрим отрезок [-1,2]. Для любого х ? [0, 1] через Ах обозначим множество таких у G [0, 1], что х - у ? Q, т. е. х — у — рациональное число. Получаем некоторую совокупность множеств из [0, 1]. Ясно, что лю- любые два множества Ах и Ау или не имеют общих точек, или совпадают. Действительно, если z ? Ах Hz?i4j,,TOa:-z?QHy-z?Q, отсюда следует, что х - у ? Q, или у ? Ах. Следовательно, Ау = Ах. Значит, отрезок [0, 1] разбит на непересекающиеся подмножества. Выберем из каждого подмножества разбиения по одному элементу и обозначим через А совокупность всех выбранных эле- элементов. Пусть событие А состоит в выборе точки из множества Л ? [-1, 2] и Р{А} — вероятность этого события. Пусть Г|, гг,..., г„,... — рациональные числа из отрезка [0, 1]. Заметим, что если i Ф j, то {А + rt} П {А + г}} = 0. По свойству B), которым должна обладать вероятность, имеем P\U {Л + r;} U Е Р{Л + г,} = Е РШ = Jim nP{A).
38 Глава XXXVIII. Случайные события. Вероятность Но этот предел не существует, если Р{А} > 0, и равен нулю, если Р{А} = 0. Последнее, однако, невозможно, так как и в силу монотонности вероятности 1- = Р{[0, 1]} ^ Р{и?, {А + г,-}} ^ Р{[-1, 2]} = 1. > Отсюда следует, что приписать событию А вероятность разумным образом невоз- невозможно. Поэтому, либо следует отказаться от требования аддитивности, предъявляемо- предъявляемого к вероятностной функции, либо сузить класс событий, подлежащих рассмотрению из числа происходящих в эксперименте, но сохранить свойство B). В современной теории вероятностей принят последний подход. Помимо чисто ма- математических соображений, это вызвано тем обстоятельством, что в реальной ситуации всякий эксперимент допускает лишь дискретное описание. Недискретные модели — удобная математическая абстракция, идеализация ситуации, но хотелось бы, чтобы идеализированная модель вероятностного описания эксперимента включала в себя важнейшие черты и характеристики, присущие реальному эксперименту, а поскольку дискретные вероятностные модели, обладающие свойством аддитивности, на практи- практике себя зарекомендовали как весьма полезные и эффективные при прогнозировании явлений, природа которых случайна, то резонно свойство аддитивности вероятност- вероятностной функции сохранить и в моделях, структура которых более сложна, чем дискретная. «Подправленная» в соответствии с приведенными выше соображениями схема вероятностного описания экспериментов выглядит так. Пусть п — {ш} — пространство элементарных исходов эксперимента. Выделим среди всех возможных в эксперименте п событий некоторую совокупность событий 9/, обладающих следующими свойствами: 1. UE9/; 2.УАе9/=>А~е9/;вчастности, 0 G 9/; 3. V Аи А2, ... , Аи • • • , А{е9/=>1) А{ е 9/. Заметим, что из указанных свойств совокупности 9/ вытекает, например, что V А, В е 9/ => А П В е 9/ (т. к. из равенств де Моргана следует А П В — Аи В), а также А \ В е 9/ (т. к. А \ В = А П Б). Совокупность1?/ событий, обладающую свойствами 1-3, называют а-алгеброй (сиг- (сигма-алгеброй) событий. Вероятность, удовлетворяющую требованиям неотрицательности, нормировки и счетной аддитивности, в соответствии со схемой п. 3.1 определим теперь не для всех событий в эксперименте, а для входящих в сигма-алгебру 9/. Эти события называются случайными событиями, происходящими в эксперименте п. Практически построение а -алгебры случайных событий осуществляется для кон- конкретного эксперимента следующим образом: в эксперименте выделяется некоторая совокупность событий, важная с точки зре- зрения исследователя и называемая в дальнейшем совокупностью «наблюдаемых» со- событий; множество «наблюдаемых» событий расширяется за счет добавления в него всех отрицаний и не более чем конечных объединений событий из числа «наблюдаемых»; для всех событий из полученной совокупности определяют вероятность, удовле- удовлетворяющую требованиям неотрицательности, нормировки A) и счетной аддитивно- аддитивности B);
§3. Вероятность. Случайные события 39 строится & — наименьшая а -алгебра, включающая в себя все указанные выше со- события (такая всегда существует) и определяются вероятности всех событий, входящих в ^", с сохранением определения вероятности, уже принятого для порождающей вГ совокупности наблюдаемых событий (это также всегда возможно, причем единствен- единственным способом). Реализация этой программы для недискретных экспериментов произвольной при- природы достаточно сложна и громоздка как с идейной, так и с технической точки зрения, чтобы быть приведенной в этой книге. Мы остановимся здесь лишь на случае экс- экспериментов, множество элементарных исходов которых может быть описано точками некоторого подмножества Е". 3.4. Числовая прямая Допустим, что множество исходов эксперимента п может быть описано множеством точек некоторого интервала (полуинтервала, отрезка) (а, Ь) на числовой прямой Е — каждому исходу ш поставлена в соответствие точка х на (а, Ь) и, наоборот, каждой точке х € (а, Ь) отвечает некоторый элементарный исход ш € п (случаи а = -оо, Ь — +оо не исключаются). Однократное проведение эксперимента п будем интерпретировать как выбор точ- точки из промежутка (а, Ь). «Наблюдаемыми» в этом эксперименте событиями будем считать события, состоящие в выборе точки из интервала (а, /?) С (а, Ь). Расширим множество «наблюдаемых» событий (так, как было указано выше), добавив к нему события, получающиеся из «наблюдаемых» в результате допустимых действий над по- последними: построения противоположных событий, а также всевозможных не более чем счетных объединений и пересечений. Пусть теперь Ф(ж) — произвольная монотонно неубывающая ограниченная функ- функция, определенная на всей числовой прямой и такая, что для любого «наблюдаемого» события А = {ш: а ^ ш < /?} Р{А] = P{a^w<P} = Фф) - Ф(а). A0) Для выполнения условия нормировки вероятности следует потребовать, чтобы Ф(х) дополнительно удовлетворяла условию lim Ф(ж) = 0, НтФ(х) = 1. A1) х->а+ z->/3- В силу монотонности и ограниченности Ф(х) пределы A1) существуют. Далее, если где А\ = {ш: ах ^ ш < /?i}, А2 = {ш: а2 ^ ш < р2], «1 < Р\ ^ «2 < А, то Р{В} = Р{А1}+Р{А2}, A2) где P{Ai} определены соотношением A0). Таким образом, вероятность определена на конечном объединении промежутков в (а, Ь). Можно показать, что она будет удовлетворять требованию а -аддитивности. Отсюда следует, что вероятность определена на наименьшей а -алгебре, содержащей промежутки. Определение. Наименьшая а -алгебра, содержащая все интервалы из (а, Ь), называет- называется борелевской а-алгеброй промежутка (а, Ь), а множества, входящие в борелевскую а -алгебру — борелевскими.
40 . Глава XXXVIII. Случайные события. Вероятность Итак, с помощью ограниченной неубывающей функции Ф(аг) мы определили ве- вероятность на борелевской а -алгебре (а, Ь). Этот способ задания вероятности является универсальным, так как если на борелевской о--алгебре промежутка (а, Ъ) задана про- произвольная вероятность, то она определяется по функции Ф(х) = а о/ х} вышеуказанным способом. Пример 1. Дискретные вероятностные пространства. Пусть хьх2,... ,хп,... — конечное или счетное множество точек на прямой и Pl>P2> ••• >Рп> ••• — последовательность чисел таких, что Определим вероятность произвольного множества А С Ш- так Р{А} = ? Pi х,ел (складываются числа р, с теми же номерами, с которыми члены последовательности {хп} входят в А). Ясно, что определенная таким образом вероятность задается с помощью функции *(*)= ? Pi- х,<х Если все точки х\, хг, ¦ ¦ ¦, хп,... — изолированные, то Ф(х) — ступенчатая функция с разрывами в точках {хг}, при- причем Ф(аг, + 0)-Ф(а:{-0)=р{. (рис.23). Если же точки последовательности {хп} не изолиро- изолированы, то Ф(х) может иметь довольно сложную структуру и ее график так просто изобразить невозможно. Пример 2. Равномерное распределение на отрезке. Если функ- функция Ф(х) линейна на отрезке [a, ft], Ф(х) = 0 при х < а и Ф(х) = 1 при х > Ь, то такой способ определения веро- вероятности называется равномерным распределением вероятности на [a, ft], т.к. вероятность отрезка [а, /3] пропорциональна его длине и не зависит от его расположения внутри [a, ft] (рис. 24). Пример 3. Пусть существует неотрицательная интегрируемая функция f(x) такая, что Pa Рг Pi, P\ О f(x)dx = Ф(х) = I f{t) dt. xl X2 Рис. 23 Рис. 24 Для любого х G К положим Определенное таким образом распределение вероятности называется абсолютно непрерывным рас- распределением, а функция f(x) — плотностью этого распределения. Легко видеть, что рассмотренное в примере 2 равномерное распределение является абсолютно непрерывным с плотностью 0 при х ? (а, Ь). Дискретное распределение (см. пример 1) не является абсолютно непрерывным, т. к. вероятность од- одноточечного множества при абсолютно непрерывном распределении равна 0 (Ф(ж) — непрерывная функция), а при дискретном положительна.
§3. Вероятность. Случайные события 41 3.5. Координатная плоскость в Ш2 Предположим, что множество исходов эксперимента О, может быть описано множе- множеством D С Е2, т. е. существует взаимно однозначное соответствие между точками множества D и исходами эксперимента О,. «Наблюдаемыми» событиями будем счи- считать события, состоящие в выборе точки из прямоугольника, принадлежащего D, с включенными или нет отрезками границы. Определив вероятность для «наблюда- «наблюдаемых» событий, распространим ее вначале на конечные объединения и пересечения прямоугольников, а потом и на наименьшую ^--алгебру, содержащую прямоугольники и называемую, как и в одномерном случае, борелевской. Аналогично одномерному случаю вероятность можно задавать с помощью функ- ЦИИ Ф(х, у) = Р{(и, v) e D: и < ж, v < у}; однако здесь (тем более при переходе к Е" для п > 2) эта схема весьма громоздка и редко применяется на практике. Пример 1. Дискретные распределения. Пусть хих2,... ,хп,... — конечное или счетное множество точек плоскости R2 (или D С R2) и р\, р2,. ¦., рп, • • • — последовательность неотрицательных чисел ос 2 таких, что ? pt = 1. Вероятность множества 4СМ определим так х,вА Это и есть дискретное распределение вероятностей (полная аналогия с одномерным случаем). Пример 2. Абсолютно непрерывные распределения. Пусть /(х, у) — неотрицательная интегрируемая функция на R2 (или в D) и JJ f(x,y)dxdy=l. Так же, как и в одномерном случае при абсолютно непрерывном распределении, вероятностью множе- множества А называем число Р{А} = JJ f(x, у) dx dy. А Аналогичным образом определяются вероятности в пространствах элементарных исходов, равно- мощных некоторым кубируемым подмножествам в К". «Наблюдаемыми» будем считать события, со- состоящие в выборе случайной точки из прямоугольного параллелепипеда (с включенными или нет гра- гранями — это вопрос соглашения), и действуя далее точно так же, как в R2. 3.6. Геометрические вероятности Важным для приложений частным случаем изложенных выше схем являются так на- называемые геометрические вероятности. Пусть О, — кубируемое подмножество Е", ц(О) — его мера (при п = 1 — дли- длина, при п — 2 — площадь, при п = 3 — объем и т.п.). События — борелевские подмножества О., т. е. наименьшая о--алгебра, порожденная параллелепипедами П„ = {ш: а3 < u>j < b3, j = Т/п}. По определению, вероятность пропорциональна мере В частности: если О, — кривая на плоскости, начинающаяся в точке М\ и заканчивающаяся в точке М2, и случайное событие — выбор точки из дуги А (рис. 25), то вероятность этого события рм= где 1(А) — длина дуги А;
Глава XXXVIII. Случайные события. Вероятность У Рис. 25 Рис. 26 если п — область на плоскости (рис. 26), то Рис. 27 Р{А} = S(A) A5) где S(A) — площадь множества А; если п — тело в пространстве (рис. 27), то рШ=т A6) где V(A) — объем множества А. Как правило, геометрические вероятности возникают в ситуации, когда множество всех возможных исходов эксперимента можно интерпретировать как «геометриче- «геометрическое», а сам эксперимент обладает физической (или геометрической) симметрией, обеспечивающей «равновозможность» всех исходов; при этом вероятность равномер- равномерно распределена по всему множеству. Рассмотрим несколько примеров. Пример 1. Точка случайным образом брошена на окружность радиуса 1. Какова вероятность того, что длина проекции радиус-вектора этой точки на выбранное направление не превышает 0,5? ¦4 Пусть выбранное направление совпадает с направлением оси Ох, а центр окружности лежит в точке х — 0, у = 0 (рис.28). Случайность бросания позволяет считать, что вероятность попадания точки на любую дугу пропорциональна длине этой дуги и не зависит от ее положения на окружности. Тогда для любого события А = {из: из (Е L} в соответствии с A4) имеем Р{А} = 2тг Для того, чтобы длина проекции не превышала 0,5, нужно, чтобы точка попала либо на дугу MqM\, либо на дугу М%М^. Поэтому В = {из: из (Е U "AfoMil и я/3 Пример 2. Пусть (?, rj) — координаты точки, выбранной случайным обра- образом из единичного квадрата 0 ^ х, у ^ 1. Найти вероятность того, что корни уравнения х2 + ?х + q = 0 а) действительны; б) оба положительны •4 а) Корни уравнения действительны, если выполняется соотношение м Рис. 28
§ 4. Условные вероятности. 43 Множество {((,, г}): ховано. Получаем ?2/4; 0 ^ (, ^ 1; 0 ^ rj ^ 1} на рис. 29 заштри- заштри\е 1 Р{« корни действительны»} = / — d? = —. о б) Легко видеть, что искомая вероятность равна нулю, так как по- положительность корней требует отрицательности ? (по теореме Виета ж, -|- xi = — ? > 0), что невозможно. > Пример 3 (задача Бюффона). Плоскость разграфлена параллельными пря- прямыми, отстоящими одна от другой на расстоянии L. Найти вероятность того, что наудачу брошенная игла длины f < L пересечет какую-нибудь из этих прямых. о Ч Рис.29 L/2 О--0/2 О -L/2 X L/2 о X Рис. 30 А Игла, брошенная наудачу на плоскость, разграфленную параллельными прямыми, однозначно фик- фиксируется следующими координатами: положением ее середины и углом поворота относительно некото- некоторого фиксированного направления. В силу периодичности картины достаточно рассмотреть одну полосу ширины L. Систему координат введем так: начальную точку О возьмем на середине полосы, ось аб- абсцисс проведем параллельно прямым, ограничивающим полосу, а ось ординат — перпендикулярно. Пусть у — ордината середины иглы, брошенной на полосу. Считая, что положение иглы случайно, по- полагаем вероятность попадания середины в любой промежуток внутри [—L/2; L/2] пропорциональной длине промежутка. Игла пересекает границу полосы, если выполнены следующие условия: L , , L-1 j > Ы > -у- и угол <р, составленный иглой с положительным направлением оси ординат, не меньше предельного угла для этой ординаты, ^ L/2 - \у\ cos <р ^ ——— = cos <ро (рис. 30). Возможные положения иглы на плоскости (<р, у) описы- описываются точками прямоугольника У а множество М положений иглы, при которых она пересекает пря- прямую, описывается так -я/2 ___J <Р Для искомой вероятности получаем -1/21 Р = Рис.31 S{n) Ln' § 4. Условные вероятности Пусть п — эксперимент, в? — совокупность случайных событий, Р{А} — правило вычисления вероятностей для любого случайного события A G $W. Часто возникает
44 Глава XXXVIII. Случайные события. Вероятность потребность изучения совместного осуществления нескольких случайных событий в следующей постановке: известно, что в результате однократного осуществления эксперимента п реализовалось случайное событие В. Что можно сказать о степени достоверности осуществления события А? Ясно, что если события Аи В несовмест- несовместны, то осуществление события В означает невозможность осуществления события А в том же испытании. Если же событие А подчинено событию В (В влечет за собой А, В С А), то осуществление В влечет за собой осуществление А (рис. 32). Однако эти две ситуации в известном смысле крайние, и для любого другого события А достовер- достоверность его осуществления вместе с В должна быть тем выше, чем большую долю в В составляют элементарные исходы А (рис. 33). Рис 32 Рис. 33 Вышеизложенное дает основание для следующего определения. Определение. Условной вероятностью случайного события А относительно случайного события В, Р{В} > О, называется число Р{А П В} Р{А\В} = Р{В} (О Отметим очевидные свойства условной вероятности: 1. А: 0^Р{А\В} ^ 1. < Р{АВ} ^ Р{В}, поскольку АВ С В. > 2. Р{В\В} = 1. 3. Р{0 |В} = 0, Р{п\В} = \. 4. Если Л, П А2 = 0,то P{Ai U А2 \В} = Р{АХ \В} +Р{А2\В}. < Из свойства дистрибутивности сложения событий Отсюда следует искомое. > 5. Р{А\п} =
§ 4. Условные вероятности. 45 Условные вероятности позволяют ввести в рассмотрение одну важную теорети- теоретико-вероятностную конструкцию, связанную с осуществившимся в эксперименте п случайным событием В (ненулевой вероятности) — конструкцию сужения, или огра- ограничения, эксперимента п на событие В. Рассмотрим эксперимент пв такой, что = {пв, Рис. 34 УАСпАв=АПВ, (см. рис.34). (Заметим, что &в — является сигма-ал- сигма-алгеброй.) Определение эксперимента пв корректно в том смы- смысле, что любое событие из о--алгебры случайных собы- событий ^g обладает вероятностью. Эксперимент пв назы- называется сужением эксперимента п. Пример 1. Эксперимент п состоит в одновременном подбрасывании двух игральных кубиков ') с после- последующей фиксацией значений, оказавшихся на верхних гранях кубиков. Найти вероятность того, что на кубиках выпали разные числа, если известно, что сумма выпавших очков оказалась равна 8. ¦4 Опишем пространство элементарных исходов рассматриваемого эксперимента списком Q, элемен- элементами которого являются упорядоченные наборы пар чисел (i,j), где t — число, выпавшее на первом кубике, j — на втором. Имеем П = {(«',Д 1 = 1,2,...,6; J = 1, 2 6}. Число всех возможных исходов |fi| = 36. В силу физической симметрии эксперимента положим Событие состоит из 30 равновозможных элементарных исходов, поэтому событие B = {(iJ): i+j = S} из 5 равновозможных исходов — 5 Совмещение событий А и В имеет следующую структуру: А П В = {(г, j): г ф j, i + j = i} = {B, 6); C, 5); E, 3); F, 2)} Формула условной вероятности дает Р[А\В\-Р{АВ} -4/36-4 ПА\Щ- р{в} -5/36-5- Тот же результат можно получить, рассмотрев сужение эксперимента п, индуцированное событи- событием В. В этом конкретном эксперименте имеем пв = {(i, j): i +j = 8} = {B, 6); C, 5); E, 3); F, 2)}, AB = {B, 6); C, 5); E, 3); F, 2)}, P{AB} = -e. ') Игральный кубик — симметричный однородный куб, на каждую грань которого нанесены символы от 1 до 6 с соблюдением следующего правила: сумма значений на противоположных гранях равна 7. Таких кубиков существует ровно два, но для дальнейшего не важно, о каком из них идет речь.
46. Глава XXXVIII. Случайные события. Вероятность Проиллюстрируем приведенные выше рассуждения таблицей A,6) A,5) A,4) A,3) A,2) A,1) B, B, B, B, B, 6) 5) 4) 3) 2) C,6) C,5) C,4) C,3) C,2) D, D, D, D, D, 6) 5) 4) 3) 2) E, E, E, E, E, 6) 5) 4) 3) 2) F, F, F, F, F, 6) 5) 4) 3) 2) B,1) C,1) D,1) E,1) F,1) Отметим еще несколько полезных соотношений, связанных с понятием условной вероятности. 4.1. Правило умножения вероятностей Р{АВ} = Р{А | В}Р{В}, Р{В} > 0. B) Это соотношение очевидным образом следует из определения A) и может быть легко обобщено на случай п совмещаемых событий P{AiA2...An}=P{Ai\A2AJ...An}P{A2\A3A4...An}...P{An^\An}P{An}) C) если только P{AiAi ... Ап}> 0. Пример 1. Список экзаменационных вопросов содержит 25 вопросов, из которых студент подготовил только 20. Экзаменатор задает ему два вопроса, выбирая их из списка случайным образом. Найти вероятность того, что студент знает ответ на оба предложенных ему вопроса. •4 1. Один из способов получения ответа на поставленный вопрос следующий: пространство элемен- элементарных исходов рассматриваемого эксперимента П состоит из всевозможных (вообще говоря, неупоря- неупорядоченных) пар номеров {(i, j), i Ф j, i, j = 1,25} вопросов, которые может предложить преподава- преподаватель. Всего их \П\ = С25. Событие А, состоящее в том, что студент знает ответ на оба предложенных вопроса, состоит из тех пар (i,j) вопросов, которые он подготовил. Их Сзд- Учитывая случайность выбора вопросов преподавателем можем считать все исходы в п равновозможными, а потому Пл)--С™ = 20'19 = 19 Х S С\ь 25-24 30" 2. Другой способ — использование понятия условной вероятности: пусть событие В — «первый из предложенных студенту вопросов ему известен», событие С — «второй из предложенных студенту во- вопросов ему известен». Тогда событие А —^«студент знает ответ на оба предложенные ему вопроса» — есть совмещение событий В и С и по правилу умножения B) Р{ А} = Р{ВС} = Р{С | В}Р{В}. D) Но Р{В} = 20/25 — вероятность извлечь из совокупности 25 равновозможных вопросов любой из 20 известных студенту, тогда вероятность Р{С | В} извлечь из оставшихся 24 вопросов любой из остав- оставшихся 19 известных студенту дается соотношением и теперь осталось применить формулу умножения D). > 4.2. Формула полной вероятности Пусть случайные события Н\, Яг,... Н„ попарно несовместны, P{Hj} > 0 и Н\ + Н2 +... + Нп = п. Совокупность событий {Ну} будем называть полной группой несовместных событий в эксперименте п. Тогда для любого случайного события А справедливо равенство = P{A\Hl}P{Hl} + ...+P{A\Hn}P{Hn}. E)
§4. Условные вероятности 47 < Действительно, из следует п U АЩ = А и при этом АЩ П AHj = 0 . По правилу сложения вероятностей отсюда получаем Р{А} = Р{АЩ} + Р{АН2} + ...+ Р{АНп}. Правило же умножения C) дает откуда и следует требуемое. > Заметим, что в рамках принятой теории соотношение E) формализует естествен- естественный перебор альтернатив: если Н\, Н2, ... , Нп — альтернативные события, то А происходит либо вместе с Н\, либо с #2, ... , либо с #„. Следующий ниже пример иллюстрирует эту мысль. Пример. Известно, что 5 % мужчин и 0,25 % женщин — дальтоники. Найти вероятность того, что наугад выбранный человек — дальтоник (предполагается, что число мужчин NM и число женщин Nx одинако- одинаковы, NM = N* = N). ¦4 Вероятность того, что наугад выбранный человек — дальтоник, должна быть, очевидно, пропор- пропорциональна общему количеству дальтоников Na, которое в свою очередь является суммой количества дальтоников-мужчин Nw E% от количества мужчин) и количества дальтоников-женщин Nm @,25% от количества женщин): Na = 0,05iVM + 0,0025#ж = iV@,05 + 0,0025) = iV@,05 + 0,0025) = 0,0525 • N. Доля дальтоников дается соотношением Р{ «человек — дальтоник»} = — = 0,02625. 2N Проведенные наводящие рассуждения формализуются следующим образом: пусть Д — событие, состоящее в том, что наугад выбранный человек — дальтоник, М — что он мужчина, Ж — женщина. Заметим, что события М и Ж в рассматриваемом эксперименте (случайный выбор индивидуума из содержащей одинаковое число мужчин и женщин совокупности) образуют полную группу несовместных событий. В силу NM — .TV* можно считать что Р{М} = Р{Ж} = -. 2 Для вероятности события Д из E) получаем Р{Д} = Р{Д | М}Р{М} + Р{Д|Ж}Р{Ж}. В качестве Р{Д|М} разумно, исходя из условия задачи, взять долю дальтоников среди мужчин — Р{Д|М} = 0,05. Аналогично и для Р{Д|Ж} = 0,0025. Поэтому Р{Д} = 0,05 • 1- + 0,0025 • 1- = 0,02625. > I 4.3. Формула Бейеса Формула условной вероятности A) может быть прочитана и следующим образом: пусть А и Н — два события ненулевой вероятности. Формальными выкладками получаем,что поскольку Р{АН} - Р{НА} - Р{А \Н}Р{Н}, то F)
48 Глава XXXVIII. Случайные события. Вероятность Последняя формула интерпретируется так: пусть a priori (до проведения испытания) мы оценили вероятности событий А и Н. Проведем эксперимент п и, если событие А осуществилось, пересчитаем вероятность события Н в соответствии с F). Получим Р{Н\А} — апостериорную (послеопытную) вероятность Н, которая уточняет наше знание о возможностях осуществления события Н в последующих испытаниях. Эта интерпретация становится особо интересной, если применить формулу F) к полной системе несовместных событий Н\, Hi, ... , Нп: P{Hj\A} = _ p{a\Hj}p{Hj} w 1=1 G) Соотношение G) позволяет при известных априорных вероятностях событий и сведении о том, какое событие А осуществилось в данном испытании, найти апо- апостериорное распределение вероятностей P{Hj\A}, События Hj в этой трактовке носят имя «гипотез», а само соотношение G) служит основой весьма плодотворного подхода в современной статистике, носящем имя «бей- есовского» подхода. Формула G) называется формулой Бейеса или формулой гипотез. Пример. Оператор на мониторе локатора может зафиксировать сигнал, являющийся следом либо объ- объекта, либо его имитации. При этом в одном случае из пяти оператор ошибается. Известно, что в поле наблюдения оператора объекты появляются вдвое реже, чем их имитации. Оператор идентифицировал сигнал на экране монитора как сигнал от объекта. Какова вероятность того, что в поле наблюдения находится действительно объект, а не его имитация? •4 Пусть #| (Яг) — гипотеза, состоящая в том, что в поле наблюдения находится объект (имитация). Событие О — «сигнал на экране монитора идентифицирован как сигнал от объекта». Задача состоит в нахождении вероятности Р{Н\ \О). По формуле G) получаем Условия задачи дают основания для следующей оценки априорных вероятностей: =1-; Р{Н2} = ~ (так как + Р{Н2} = \); Окончательно получаем Р(Я'|0} = = -5; Р{О\Н2}=1-. 4/5-1/3 + 1/5-2/3
§4. Условные вероятности 49 4.4. Независимость случайных событий Формула условной вероятности позволяет ввести в рассмотрение еще одно важное по- понятие — понятие зависимости и независимости случайных событий. Если трактовать независимость случайных событий в некотором эксперименте как отсутствие влияния осуществления или неосуществления одного или нескольких событий на осуществле- осуществление или неосуществление другого или других событий, то разумно оценивать степень такой зависимости изменением вероятности осуществления событий второй группы при наличии информации об осуществлении событий первой группы. Приведенное соображение дает основание для следующего определения. Определение. Будем говорить, что событие А не зависит от события В, если Р{А\В} = Р{А}, Р{В}>0. (8) Сразу же отметим, что несмотря на внешнюю асимметрию данного определения, понятие независимости взаимно: если А не зависит от В, то и В не зависит от А. •^ Действительно, если событие А не зависит от события В, то правило умножения вероятностей B) принимает вид Р{АВ} = Р{А | В}Р{В} = Р{А}Р{В}. (9) Отсюда легко получаем ПЛВ} - Р{Л?Р{В? - Р(В\ ~ Р{А} - Р{В}' если только Р{А} > 0. Последнее соотношение и означает независимость В от Л в смысле определения (8). > Для событий положительной вероятности соотношение (9) и определение (8) рав- равносильны, и любое из них может быть принято в качестве определения независимости пары случайных событий. Если события Аи В независимы, то также независимы следующие пары событий: ЛиБ, 1и5, ЛиВ, что легко проверить, воспользовавшись определением (8) и тем обстоятельством, что независимы пары событий (А, п) и (В, п). Пример 1. В эксперименте с бросанием монеты события Г (выпадение герба) и Р (выпадение решки), очевидно, зависимы, так как осуществление одного из них влечет за собой невозможность осуществле- осуществления другого. Формально Р{Г} = \, Р{Г|Р}=0 =» Р{Г\Р}фР{Г}. • Пример 2. По ведомостям о расходе запасных частей было установлено, что при ремонте автомобильных двигателей деталь А была заменена в среднем в 36% случаев, деталь В — в 42% случаев, а обе эти детали одновременно заменялись в среднем в 30% случаев. Связаны ли между собой выход из строя детали Ajp детали В? ^ Пусть А — событие, состоящее в том, что деталь А вышла из строя и подлежит замене; В — вышла из строя и подлежит замене деталь В. Условие задачи дает основание для следующей оценки вероятностей событий А, В и А П В: Р{А} = 0,36, Р{В} = 0,42, Р{А П В} = 0,3. По формуле условной вероятности получаем Р{А'В} = № ~ °'71
50 Глава XXXVIII. Случайные события. Вероятность Это означает, что замена детали А при условии, что заменяется деталь В, происходит почти вдвое чаще, чем безусловная замена этой детали, что, конечно, свидетельствует о наличии связи между выходом из строя деталей А и В. Определение. Будем говорить, что события А\, А2, ... , Ап независимы в совокупности, если для любого г, 1 ^ г ^ п, любых k, s, к + s = г, и любых i\, 22,... , г*, ii, J2, ¦ •¦ , js, im^it, jm Ф ji, выполняются соотношения P{AixAi2 ... Alk\AjxAh ... Ajs} = P{AixAh ... Ah}. A0) Например, независимость в совокупности событий А], Аг, As по определению A0) означает, что они независимы попарно, т. е. но кроме того, должны иметь место еще и соотношения Р{А1\А2А3} = Р{А]}, P{A2\AxAi) = P{A2), P{A3\ А, А2} = Р{А3}, или им эквивалентные, например , P{A]A3\A2} = P{A]A3}, Р{А]А2\А3} = Приводимый ниже пример иллюстрирует недостаточность попарной независимо- независимости для обеспечения независимости событий в совокупности. Пример 3. В урне лежат четыре геометрически идентичных шара, три из которых окрашены соответ- сгвенно в красный, синий и зеленый цвета, а окраска четвертого шара содержит все эти три цвета. Эксперимент состоит в извлечении шара из урны. Обозначим события следующим образом: К — «извлеченный шар содержит красный цвет», С — «извлеченный шар содержит синий цвет», 3 — «извлеченный шар содержит зеленый цвет». Пространство элементарных исходов О опишем списком равновозможных исходов {а/к,а/с,а/3,а/ксз}, означающих соответственно, что извлечен красный, синий, зеленый или трехцветный шар. При этом К = {шК, и/ксз}, С = {шс, wKC3}, 3 - {ь>3, иксз}. Получаем 11 Заметим, что КПС = КПЗ = СПЗ = {а/ксз}, поэтому Р{К ПС} = Р{К П 3} = Р{С п 3} = 1~, откуда следует попарная независимость событий К, С и 3. В то же время К П С П 3 = {о/ксз} и Р{КСЗ} = 1/4. Отсюда, например, р{ксз} - °'25 - 1 р{з} в то время как Из определения A0) следует, что события А\, А2, ... , Ап независимы в совокупности тогда и только тогда, когда для любого г, 1 ^ г ^ п, и любых ii, ij, I ^ i\, ^ гг ^ ... ^ гг ^ п, выполняется равенство ¦{гк}=п P{Ais}. (И)
§5. Совмещение экспериментов 51 Замечание. Отметим, что наличие «длинной» цепочки соотношений A1) не гарантирует справедливость «более коротких» цепочек. Пример 4. В урне лежит 8 физически идентичных шаров — 2 красных, 2 зеленых и по одному синему, красно-синему, сине-зеленому и трехцветному. Эксперимент состоит в извлечении шара из урны. Пространство элементарных исходов опишем следующим списком: п = {и>1, и>1, й/с, й/кс, о/и, шксз, ш\, ы\ Пусть события К, С и 3 такие же, как и в предыдущем примере. Тогда К. = WL ь>1, о»кс, ь>ксз} и Р{К} = - = -, 4 1 С = {«с, «ге, «и, шксз} и Р{С} = - = -, 3 = {wl, <*1, шсз, шксз} и Р{3} = - = -, КСЗ = {шксз} и Р{КСЗ} = 1- = Р{К}Р{С}Р{3}. В то же время КЗ = {0/ксз}, Р{КЗ} = 1 ф Р{К}Р{3} = ~. > §5. Совмещение экспериментов Часто возникает потребность в совместном рассмотрении событий из разных экспе- экспериментов. Формальная теория, изложенная выше, вообще говоря, не позволяет этого сделать, так как все определения и утверждения предыдущих разделов относятся к еди- единому для рассматриваемых в них событий пространству элементарных исходов. Ниже будет предложен способ построения общего пространства элементарных исходов для конечной совокупности различных экспериментов. Пусть {f^i, F\, Pi} и {Г^2, 2*2, Рг} — два вероятностных пространства, описываю- описывающих два различных эксперимента. Отметим, что совместное рассмотрение любых событий из этих экспериментов должно давать, во-первых, возможность рассмотрения в рамках общей модели любых событий каждого из экспериментов в отдельности, а во-вторых, в предположении отсутствия какого бы то ни было взаимодействия между экспериментами, события из разных экспериментов в рамках общей модели должны быть независимыми. Этим требованиям удовлетворяет конструкция совмещения экспериментов. Рассмотрим эксперимент, состоящий в совместном осуществлении эксперимен- экспериментов, описываемых вероятностными пространствами {f2i, F\, Р\} и {Г^2, 2*2, Рг}, при условии отсутствия взаимодействия между ними. Совокупность элементарных ис- исходов этого эксперимента опишем множеством всех возможных упорядоченных пар ]2] 2 u = {(w];w2), u/ea, г =1,2}, A) или п = п\ х Случайными событиями в этом эксперименте назовем любые подмножества мно- множества A) вида А = (Аи А2) = {(w1; u;2): u;1 G Л, G Flt и? € А2 G F2}, B)
52 Глава XXXVIII. Случайные события. Вероятность т. е. любые упорядоченные пары случайных событий из рассматриваемых экспери- экспериментов, дополнив их всевозможными не более чем счетными объединениями, пере- пересечениями и отрицаниями и т.д. (т.е. построим сг-алгебру случайных событий — наименьшую ^--алгебру, включающую в себя события вида B)). Вероятность на множестве случайных событий определим соотношением Р{А} = P{(Ai, А2)} = Р, {А, }Р2{А2}. C) Определение. Вероятностное пространство {п, F, Р}, задаваемое соотношениями A), B), C), будем называть совмещением экспериментов {п], F], Р}} и {п2, &2, Pi}- Такой способ определения вероятностного пространства корректен в том смысле, что любому событию (не только вида B)) приписана вероятность, удовлетворяющая всем предъявляемым к ней требованиям. Любое событие А \ из первого эксперимента может быть отождествлено с событием А\ = (А\, п2) из совмещения экспериментов и при этом = р,{л,}р2{ед = Р|{Л|}, D) аналогично А2 — (п\, А2) отождествляется с А2 и Р{А2} = Р,{П1}Р2{Л2} = Р2{Л2}. E) Отметим, что определение C), мотивированное отсутствием взаимодействия меж- между экспериментами, постулирует независимость в рамках совмещения экспериментов любых событий из различных экспериментов. Действительно Р{А{ А2} = P{(Ah П2) П (Uh А2)} = Р{(Аи А2)} = Р,{Л,}Р2{Л2} = = Р{Л,}Р{Л2}. Эта схема очевидным образом распространяется на случай любого конечного числа совмещаемых экспериментов. Рассмотрим несколько примеров, иллюстрирующих рассмотренную конструкцию. Пример 1. Пусть {il], F\, Р\} — вероятностное пространство, описывающее эксперимент, связанный с бросанием симметричного игрального кубика: Л, ={<•»', wji«i, «4i «5i «бЬ Р(ш})=?, i = l, 2, ...,б; f, ={0,ftIf Л,}, Л, ={w/}, P{A} = T?Pl{u1i}. Вероятностное пространство {U2, Fi, Рг) описывает аналогичный предыдущему и независимый от него эксперимент. Тогда Я = П] х Ог — эксперимент, описывающий двукратное бросание игрального кубика (или, что то же, одновременное бросание двух физически идентичных симметричных игральных кубиков) — описывается так (рис. 35): п = Цы},ы]), i = 1, 2,..., 6;j = 1, 2,..., 6}, }} = ±, А = {(wj, uj): ш] G A,; и] G А2}, Р{А} = ]Г P{(wj, и])}. Например, событие «на первом кубике выпала двойка» описывается всеми точками п вида (u/j, ft2) = {(«j, «?), (ш1 wl), (tJl2,ul),... , («i, a;62)}, событие «на обоих кубиках выпали одинаковые числа» — точками п вида и т.д.
§5. Совмещение экспериментов 53 Q 2 (У, 111111 Рис. 35 Q, Пример 2. Биномиальный эксперимент. В эксперименте, описанном вероятностным пространством {Q, F, Р}, рассмотрим некоторое событие У, которое в дальнейшем будем называть «успех», и для которого P{Y} = р > 0. Событие У будет расцениваться как «неуспех»: P{Y} + P{Y} = 1. Свяжем с описанным выше экспериментом дискретный эксперимент с двумя элементарными исхо- исходами UB = {Y,Y}, F = {0,U,Y,Y}, P{Y}=p; P{Y}=q = l-p, который будем называть экспериментом Бернулли с параметром р. Последовательность п независимых испытаний, в каждом из которых событие У происходит с не- неизменной вероятностью р, является n-кратным совмещением эксперимента пв. Элементарными исходами, составляющими пространство элементарных событий п = пв х ... х пв = {пв)п, п будут всевозможные упорядоченные наборы длины п, составленные из символов У или У. Легко под- подсчитать, что общее число таких наборов (элементарных исходов) \п\ = 2". Каждому элементарному исходу в соответствии с правилом C) припишем вероятность р qn~ , если только этот исход содержит ровно к символов У (описывает такой результат эксперимента, когда в серии из п независимых ис- испытаний наблюдалось к успехов и, соответственно, п- к неудач.) Введем в рассмотрение следующие события: А=к — {«ровно к успехов в серии из п испытаний»}; = {«не менее к успехов в серии из п испытаний»}; = {«не более к успехов в серии из п испытаний»}; = {«количество успехов в серии из п испытаний заключена в пределах от г до к»}. Сразу заметим, что поскольку А=к П А-т = 0, если только к Ф г, то А^,к = -4=0 + А=\ + • • • + А—к и у=о Аналогично ]=к j=r Для событий А=к имеем А=к = {YYY ... У, YYY ... У, ... , УУ ... YYY}, где каждый элементарный исход содержит ровно к символов У. Поскольку всего таких исходов С*, то P{A=k} = Cknpk{l-p)n-k. F) Эксперимент, являющийся n-кратным совмещением бернуллиевского эксперимента с парамет- параметром р, будем называть биномиальным экспериментом с параметрами (п, р).
54 Глава XXXVIII. Случайные события. Вероятность Схема биномиального эксперимента находит широкое применение в различных прикладных зада- задачах. Рассмотрим два конкретных примера. Пример 1. Телевизионный завод выпускает в среднем 2% некачественных кинескопов. Сборочный цех получил 10 кинескопов. Какова вероятность того, что среди полученных не более 2 некачественных? ¦4 Событие У — «соответствующий кинескоп качественный», У — «соответствующий кинескоп не- некачественный». Количество испытаний п = 10. В качестве вероятности успеха условие задачи дает основание принять величину 0,98. Следует найти Р{А^%}. Имеем ю Р{А>%} = ? Р{АЧ) = С?0@,98K • (О,О2J + +С?0@,98)9 • @,02) + С${0,9%)]0 « 0,999. > Пример 2. Урновая схема с возвращением. В урне лежит N = т + 1 геометрически идентичных шаров, соответственно т черного и I белого цвета. Эксперимент состоит в n-кратном извлечении шара из ур- урны с последующим возвращением извлеченного шара (после фиксации его цвета). Какова вероятность того, что среди извлеченных шаров число шаров белого цвета окажется не менее г? ^ Пусть У — событие, состоящее в том, что извлеченный шар белый, У — черный. Тогда p{Y} = ——jl количество испытаний — п. Следует найти {} ?(,) (, т ч"~; > Существенным обстоятельством, позволившим применить конструкцию совмещения эксперимен- экспериментов (в рассмотренном примере — совмещения однократных извлечений шара из урны) является неиз- неизменность вероятности извлечения белого шара — следствие процедуры выбора с возвращением. Пример 3. Полиномиальный эксперимент. Пусть Н\, #2,... Нк — полная система несовместных собы- к тий, P{Hj} =Pj, ? Pj = 1. Свяжем с рассматриваемым экспериментом дискретный эксперимент пВ = {НиН2,...Нк}, P{Hj}=Pj и рассмотрим последовательность п независимых испытаний, в каждом из которых может происходить любое из событий Hj с вероятностью pj — n-кратное совмещение эксперимента Q . Его элемен- элементарные исходы — упорядоченные наборы длины п, составленные из символов {Я^}*_, — на любом месте набора может стоять любой из символов Hj. Заметим, что \п\ = \(пв)п\ = *". В соответствии с правилом B) каждому исходу, составленному из ^ символов Н\, г2 символов Hi,..., гк символов Нк, Г] + гг + ... + Гк = п, припишем вероятность Р = Р?'Р?---Р?- Введем в рассмотрение событие i4=r,r2...rfc = {«ровно Г! осуществлений Н\ ровно г* осуществлений Нк»}, где г\ + гг +... + гк = г, 0 ^ Tj. Все исходы, составляющие событие Л=Г,Г2...Г4., имеют одну и ту же вероятность р\*,..., ргкк, и всего их т ,r "! -f j (см. Приложение). Тем самым, nn..,t} = r[rf- Гк1Р?Р?--.Р?. G) Этот эксперимент будем называть полиномиальным экспериментом с параметрами (n; pi,p2,... ,pk). Рассмотрим конкретный пример. Пример. Двое друзей договорились встретиться в определенном месте в 10 часов утра. Известно, что каждый из них приходит к месту встречи случайным образом в любой момент времени от 9.45 до 10.15 независимо от момента прихода к месту встречи другого. Найти вероятность того, что одному из них придется ожидать другого не более 10 минут. Пусть П\ — пространство элементарных исходов, описывающее моменты прихода к месту встречи одного из друзей, ffe — второго: fi,=j<: 9^
§6. Счетные совмещения. 55 В каждом из указанных экспериментов естественными наблюдаемыми событиями будут события, со- состоящие в приходе к месту встречи в некотором временнбм промежутке (a, /J) С (9^, 10^ ). Единицей измерения времени выбран час. Вероятность события Ax={t: te(a,p)} в силу случайности момента прихода к месту встречи первого из друзей резонно считать пропорцио- пропорциональной длине промежутка (a, /J): Коэффициент пропорциональности к определим из условия нормировки = -к = 1, откуда к = 2. Для п2 поступаем аналогично. Заметим, что случайными событиями в рассматриваемых экспери- экспериментах будут элементы борелевской <г-алгебры на промежутке (9^, 10^ V Совмещением экспериментов f2i и Пг будет эксперимент, пространство элементарных исходов которого можно описать точками квадрата на плоскости (t, т): В соответстаии с рассмотренной выше конструкцией вероятности любого случайного события щения (А,, А2) = {(*, т):сц ^1^ри-а2^.т^р2} будут определяться соотношением Р{(Аи А2)} = 2@, - а,) • 2@2 - «2) = 4@, - а,)@2 - а2), (вероятность попадания в прямоугольник пропорци- пропорциональна его площади). Отсюда, для любого собы- события, описываемого квадрируемым подмножеством множества точек квадрата п, вероятность пропор- пропорциональна площади о/ л\ (8) Интересующее нас событие — «время ожидания од- одним из друзей другого не превышает 10 минут» — описывается множеством тех точек п, для которых \t — т\ ^ 1/6 (напомним, что время измеряется в часах: 10 минут = 1/6 часа) из совме- совмеА = {A,т): \1-т Поэтому, в соответствии с (8) имеем 1-; (t, т) € ft}. Собственно вычисление площадей проиллюстриро- проиллюстрировано на рис. 36. id 4 10 9* 4 О 1 1 Q j№ jj/бч \я ! 1/Зч 93 10 4 5 36 ¦ г " )> 4 Рис.36 §6. Счетные совмещения В предыдущем параграфе построена конструкция, позволяющая совместно рассматри- рассматривать события из конечного числа разных экспериментов. Однако во многих случаях возникает потребность рассматривать события из бесконечного множества различных экспериментов. Например, в теории случайных процессов изучается связь между слу- случайными событиями, происходящими в разные моменты времени, и предполагается, что для любого момента времени задан свой эксперимент. В этой задаче множество экспериментов континуально.
56 Глава XXXVIII. Случайные события. Вероятность Здесь мы рассмотрим случай счетного множества экспериментов. Пусть {Г2,, F,-, Pi}, i = 1, 2, ... , — счетное множество вероятностных пространств. По анало- аналогии с конечным совмещением экспериментов совокупность элементарных исходов счетного совмещения естественно описать как множество всех последовательностей (ш\ ш2 о;" ) где ш{ G «- i = 1 2 или fi={(Wl)W2)...)W"))^Oi О — О, у Ол у у О у г = 1 00 2,...} A) Однако если мы захотим продолжить аналогию дальше и называть случайными собы- событиями множества вида А = (Аи Л2,...) = {("', о;2, ...), ш1 G Л,- G #}, а вероятность определять по аналогии как произведение, то почти всегда Р{А}^Р1{А1}Р2{А2}... =0 (здесь рассматривается бесконечное произведение). Поэтому (а также потому, что рассмотренная ниже конструкция применяется во многих задачах) рассмотрим следу- следующие построения. Определение. Множество А С Г2 назовем цилиндрическим, если существует конечное число номеров «j, i2) ... , ъп и событий Л*, G F,-,, А{г € Fj2, ... , Л,п G Fjn таких, что ,4={(u;\u;2,...): о;*1 G ^„ ... , с> € Л,п}, т. е. Л состоит из таких последовательностей (а;1, ш2, ... ) G Г2, что только на ме- местах i\,i2, ... , ik элементы ш*к содержатся в соответствующем А{к, а остальные шг произвольны. Как легко видеть, вероятностные конечные объединения цилиндрических мно- множеств образуют алгебру событий. Определим вероятность на алгебраическом множе- множестве соотношением Р{А} = }Pi2U2} • • • PinUinh B) а на конечных объединениях непересекающихся цилиндрических множеств — как соответствующую сумму. Можно доказать (хотя это довольно сложно), что опреде- определенная в B) вероятность обладает свойством о--аддитивности, и, следовательно, ее можно продолжить на наименьшую о--алгебру, содержащую цилиндрические множе- множества. Вероятностное пространство {Г2, F, Р}, задаваемое соотношениями A) и B), где F — наименьшая а -алгебра, содержащая цилиндрические множества, будем называть совмещением экспериментов {ui, Fi, Pi}, i = 1,2, ... . Случайному событию из г-го эксперимента Л, G -F, так же, как и раньше, сопоста- сопоставляется случайное событие Л,- G F, Из B) следует, что вероятности Л,- и Л, равны: P{Ai) = P{Ai}. В счетном совмеще- совмещении экспериментов события из разных экспериментов независимы в совокупности, что сразу следует из B). Итак, мы видим, что наша конструкция, как и в конечном случае, обладает всеми нужными свойствами: в новом эксперименте (Г2 = fl^i
§6. Счетные совмещения 57 вероятности всех событий не изменились и события из разных экспериментов остались независимыми. Пример 1. В примере 2 предыдущего параграфа рассмотрен эксперимент Бернулли с параметром р — Пв = {1,0} (здесь мы обозначили событие Y через 1, а событие Y через 0). На основе пв был определен биномиальный эксперимент с параметрами (п, р) как n-кратное совмещение бернуллиев- ского эксперимента. Рассмотрим теперь счетное совмещение бернуллиевского эксперимента с пара- параметром р. В соответствии с A) элементами являются всевозможные последовательности из нулей и единиц. Поставив в соответствие такой по- последовательности действительное число, для которого онв является разложением в двоичную дробь, получим п = [0, 1]. Итак, мы видим, что п континуально, даже несмотря на то, что в пв всего два элемента. Далее, в П обязательно существует событие, не имеющее вероятности, так как в отличие от биномиального эксперимента пв*°° дискретным экспериментом не является. Аналогия п и [0, 1] идет и дальше: оказывается, что при указанном отождествлении п и [0, 1] о--алгебра F, содержащая цилиндрические множества в п, соответствует о"-алгебре борелевских множеств [0, 1]. Так происхо- происходит потому, что цилиндрические множества соответствуют отрезкам с концами в двоично-рациональных точках, т. е. а -алгебры, содержащие цилиндрические множества в П и двоично-рациональные отрезки в [0, 1], совпадают. Очевидно, что а -алгебра на [0, 1], содержащая все двоично-рациональные отрез- отрезки, совпадает с о--алгеброй борелевских множеств [0, 1]. Итак, совпадают не только множества пв*°° и [0, 1], но и о--алгебры случайных множеств. Обратимся к вероятности в пв*°° и в [0,1] при р = 1/2 (в остальных случаях этот вопрос бо- более сложен). Оказывается, что в этом случае вероятность соответствует длине; точнее, если событию А С пв*°° соответствует промежуток (а; /3) С [0, 1], то Р{А} = /3 — а. Итак, при р — 1/2 счетное совмещение Пв*°° полностью совпадает с отрезком [0, 1] — и как множество, и в смысле совпадения случайных событий, а вероятность в Пв*°° совпадает с длиной в [0, 1]. Пример 2. Бросание монеты до первого появления герба. Пусть вероятность выпадения герба при од- одном бросании равна р. Эксперимент состоит в том, что мы подбрасываем монету до тех пор, пока не появится герб. Интуитивно ясно, как построить пространство элементарных событий и как задать на нем вероятность: если обозначить через 1 выпадение герба, а через 0 — решки, то все исходы эксперимента перечисляются так — 1,01, 001,..., 00... 0 1, ...,и/0. п (и/0 — герб не выпал никогда). Случайными событиями являются все подмножества, и Р{00_^ 1} = pqn, Р{ш0} = 0, п что соответствует независимости бросаний. Однако с помощью нашей конструкции счетного совмеще- совмещения событий мы можем изучить данную задачу более строго. Рассмотрим счетное совмещение бер- нуллиевских экспериментов пв*°° с параметром р. Событие Ап, состоящее в том, что п раз выпала решка, а в (п + 1)-й раз — герб, соответствует цилиндрическому множеству iin = {(«V,...): u/'=0, w2=0, ..., u/n = 0, u/n+1 = l}. Следовательно, р{Ап} = pqn. Теперь мы также можем доказать, что Р{щ} = 0. В самом деле, о;0 = {(о;1,а;2,...): и/1:= 0, i = 1, 2,... }. Отсюда видно, что щ является счетным пересечением убывающих цилиндрических множеств. Значит, по свойству непрерывности вероятности, р{ш} = 0. Итак, за пространство элементарных исходов при бросании монеты до первого появления герба возьмем совокупность цилиндрических множеств Ап, п = 0, 1, 2,... , и и/о из с-алгебры F в Q °° вместе с предписанными им в С1В*°° вероятностями. Мы получаем дискретное распределение вероятностей, так как 00 п=0 Вероятность произвольного события в нашем эксперименте находится, как обычно в дискретном распределении суммированием вероятностей элементарных исходов, благоприятствующих данному со- событию. Нвйдем для примера вероятность того, что для первого появления герба надо сделать не более трех подбрасываний. Если через А обозначить интересующее нас событие, то А = {Ао, Аи Аг} и P{A}=P{Ao}+P{A]}+P{A2}=p+pq+pq2=p(l+q + q2)=l-q\
Глава XXXIX СЛУЧАЙНЫЕ ВЕЛИЧИНЫ И ЗАКОНЫ РАСПРЕДЕЛЕНИЯ Центральным понятием теории вероятностей является понятие случайной величины, формализующее в рамках принятых выше соглашений возможность численной фик- фиксации результатов эксперимента. Как уже отмечалось, пространство элементарных событий, описывающее эксперимент, отождествляется с совокупностью всех возмож- возможных исходов, случайная же величина представляется как совокупность чисел, которые экспериментатор с тем или иным исходом связывает. Каждому исходу эксперимента ставится в соответствие число (или несколько чисел), являющееся результатом из- измерения одного показателя (или нескольких), описывающего течение эксперимента. При этом однократное проведение эксперимента (испытания) дает возможность по- получить одно измерение каждого из показателей. Отметим, что значения измеряемых показателей являются «случайными» в том смысле, что зависят от исхода, реализовав- реализовавшегося в данном испытании. Есть смысл наряду с множеством возможных значений «случайной» величины характеризовать измеряемый параметр вероятностью, с кото- которой может быть получено то или иное значение в ряду всех возможных. Любая такая характеристика носит название закона распределения вероятностей на множестве зна- значений случайной величины. Обсуждению этих понятий и изучению свойств связанных с ними конструкций посвящена настоящая глава. §1. Случайная величина Пусть {Г2, F, Р} — вероятностное пространство некоторого эксперимента, п — спи- список элементарных исходов, F — список случайных событий, Р — правило вычисления вероятностей для событий из списка F. Пусть каждому элементарному исходу ш G п поставлено в соответствие действительное число ?(ш). Определение. Будем называть f (w) случайной величиной, если для любого полуинтервала [о, Ь) С К множество тех ш, для которых ?(w) G [о, Ь), является случайным событием. Пример 1. Игрок бросает монету — при выпадении герба он выигрывает 1 рубль, решки — проигрывает 1 рубль. Случайная величина ? — выигрыш игрока будет принимать значения +1 или —1 в зависимости от того, чем закончился эксперимент — гербом или решкой. Пример 2. Эксперимент — одновременное бросание двух игральных кубиков, случайная величина — сумма выпавших очков, может принимать все целые значения от 2 до 12, в зависимости от выпавшей комбинации. Пример 3. Эксперимент — п-кратное повторение эксперимента с бросанием монеты, случайная вели- величина — количество выпавших гербов — может принимать все целые значения от 0 до п.
§ 1. Случайная величина 59 Пример 4. Эксперимент — извлечение шара из урны, содержащей равное количество белых и черных шаров, с возвращением шара в урну после каждого извлечения, случайная величина — количество извлечений до первого появления белого шара. Эта случайная величина может принимать все целые положительные значения: 1,2,3,... ,п, ... . Пример 5. Эксперимент — случайный выбор точки из отрезка [0, 1]. Случайная величина — координата точки. Эта случайная величина может принимать любые значения от 0 до 1. Пример 6. Эксперимент — наблюдение за временем безотказной работы некоторого устройства: от мо- момента включения до первого выхода из строя. Случайная величина — время безотказной работы — может принимать все действительные значения от 0 до +оо. Подчеркнем, что если обозначить через ?~'([а, &)) полный прообраз по- полуинтервала [о, Ь) при отображении ?, то ?(w) будет случайной величиной в том случае, когда ^"'([а, &)) ? F и, следовательно, можно говорить о ве- вероятности этого случайного события. Для любого полуинтервала [о, Ь) чи- числовой прямой в этом случае будет оп- определена функция Ф<{[а,Ь))=Р{С1([*,Ъ))}, Q Рис.1 которую в дальнейшем будем называть вероятностной функцией случайной величины ?. Рис. 1 иллюстрирует данные выше определения; жирная пунктирная кривая изображает плотность вероятности, речь о которой пойдет ниже, в п. 2.1; горизонтальная разрывная линия условно показывает прообраз ?~'([а, Ь)); вероятность ^{^"'([а, &))} равна площади закрашенной серым фигуры. Во всех указанных примерах легко установить, что события ?~]([а, Ь)) являются случайными событиями, т. е. элементами списка F. Заметим, что если ?(ш) — случайная величина, то ^~!{(—оо, х)}, ?~1{(х, +оо)}, ?~'{(а> Ь)}, ?~'{[а> &]}> ?~'{(о» &]}> ? '(<*) являются случайными событиями и, как следствие, прообраз любого множества на числовой прямой, полученного из интерва- интервалов не более чем счетным числом операций объединения, пересечения и дополнения (борелевское множество), будет случайным событием. Доказательство немедленно следует из очевидных соотношений {ш: <х} = {ш: -оо < ^ ж} = {ш: -оо < {о;: € [а, Ь]} = Д {а;: = а} = Д и т. д. Это позволяет говорить о вероятности попадания случайной величины в полу- полупрямую (-оо, ж), интервал (о, &), отрезок [о, Ь], точку а и т. п. Вообще, если М — борелевское множество на прямой, то осмысленным является высказывание: «вероят- «вероятность попадания случайной величины ? в множество М равна р», так как множество
60 Глава XXXIX. Случайные величины и законы распределения тех ш, для которых ?(w) € М, является случайным событием, и, следовательно, можно говорить о вероятности этого случайного события ш) еМ} = Р{ш: 1(и) е М}. A) Законом распределения вероятностей на множестве значений случайной величины ? (ко- (коротко — законом распределения) будем называть любое правило, позволяющее вычи- вычислять вероятности A). Закон распределения может быть задан в произвольной форме, однако наиболее употребительными являются следующие: — функция распределения вероятностей; — плотность распределения вероятностей; — ряд распределения вероятностей. 1.1. Функция распределения Функцией распределения вероятностей на множестве значений случайной величины ? (ко- (коротко: функцией распределения случайной величины ?) будем называть функцию F{ (х) такую, что VarGE: F^(x) = P{? < х}. B) Отметим, что определение B) корректно и F^(x) действительно определена во всех точках числовой прямой, так как множество {ш: ?(w) < x} является случайным событием и ему можно приписать вероятность. Свойства функции распределения 1. Функция F{(x) ограничена на всей числовой прямой C) 2. < Если а < Ь, то события {ш: ?(w) < а} и {ш: а < ?(w) < b} несовместны и {ш: ?(ш) <а} + {ш: а ^ ?(ш) <Ъ} = {ш: ?(ш) < Ъ}. Поэтому Р{? < а} + Р{а ^ ? < 6} = Р{? < Ь}. С учетом определения B) последнее равенство можно переписать так 2^(а)+Р{а<?<Ь} = ед, D) или Р{а < * < Ь} = ^(b) - *fc(a). > E) 3. Функция F{ (x) монотонно не убывает на всей числовой прямой F) Va<6 < С учетом неотрицательности вероятности Р{а ^ ^ < 6} следует из соотноше- соотношения D). >
§ 1. Случайная величина. 4. 61 lim Fe(x) = 0, lim X—¦ —00 X—>+00 = 1. G) •* В силу монотонности и ограниченности функции i^ (ж) на Е у нее существуют пределы при х —> ±оо. Пусть lim F<(x) = m- > 0, lim F<(z) = m+ < 1. X—>—00 Ж-++ОО Заметим, что Р{? 6l}= P{w: -оо < ? < оо} = P{ft} = 1. В силу непрерывности вероятности 1 = Р{-оо < ? < +оо} = lim Р{а < ? < Ь} = Ь—»+оо 0-+-00 = lim Fe(b) - lim 6->+оо o-»-oo = m+ - m_. что возможно лишь если т+ = 1 и тп_ = 0. > 5. Функция F{ (x) имеет не более чем счетное число точек разрыва, при этом в каждой точке существуют односторонние пределы = lim X—+XQ+ -)= lim X—*XQ — Звмечвние. Функция распределения непрерывна слева в каждой точке числовой прямой < Как и выше, в силу монотонности это утверждение легко получить из непрерывности вероятности < ='{u(« U=i ч = lim P <? < xQ \ = lim P{? < x}. > l^ П) x->xQ- П-+00 6. Если xq — точка непрерывности функции F{ (x), то если же xq P{? = P{? = X0} = 0, — точка разрыва, то Xq} = 1 ^(*o+) " Ъ(хо) (рис. 2). Для дальнейшего важным является то обстоятельство, что функция распре- распределения есть универсальная форма зада- задания закона распределения — у любой 1 - f J° — О j — ^— ... 0 Рис.2
62. Глава XXXIX. Случайные величины и законы распределения случайной величины существует функция распределения. Не менее важно и то, что функция распределения не дает исчерпывающей информации о случайной величине — разные случайные величины могут обладать одинаковыми законами (в частности, функциями) распределения. Действительно, пусть ? — случайная величина, описывающая выигрыш при игре в орлянку (см. при- пример 1). Легко установить, что Г 0, х<-1, F((x) = I 1, х>\. Пусть Tj — случайная величина, определенная в эксперименте со случайным выбором точки из отрезка @,1] так, что («) = -1, «/€ О, Л, ' о, 1 2' 1, x s -Кх* x • >1. Функция распределения случайной величины ц тождественна функции F^(x): Г 0, *<-1, 1, х>1. У этой случайной величины ?, определенной в таком же эксперименте, что и т?, следующим образом та же функция распределения: ад = Рассмотренные примеры показывают, что каждая функция распределения описы- описывает, вообще говоря, много различных случайных величин. Правда, эти случайные величины, если так можно выразиться, «не очень разные» — в реальном эксперименте у нас нет никакой возможности различить случайные величины ?, rj и ?, потому что реальный эксперимент, как правило, дает нам возможность произвести измерения значений случайной величины, но не дает возможности установить, как эти значения связаны с элементарными исходами, которые в подавляющем большинстве реальных экспериментов остаются «вещью в себе». Поэтому на практике экспериментатор имеет дело с функцией распределения вероятностей на множестве значений случайной величины, а не с функцией от элементарных исходов на пространстве элементарных исходов. Интересно поэтому выяснить, какие функции могут быть функциями распределе- распределения и как, зная функцию распределения, указать по крайней мере одну из случайных величин, описываемых этой функцией. Оказывается, что любая монотонно-неубыва- монотонно-неубывающая на Е функция F(x), непрерывная слева в каждой точке и такая, что lim F(x) = 0, lim F(x) = 1, X—»-00 X—»+OO может служить функцией распределения. Точнее, имеет место Теорема. Пусть F(x) — функция, определенная на всей числовой прямой и обладающая ука- указанными выше свойствами. Тогда существует вероятностное пространство {П, F, Р}
§ 1. Случайная величина. 63 и случайная величина случайной величины ?, такие, что F(x) является функцией распределения ) = F(x). < Укажем одну из возможных конструкций требуемого пространства. Пусть экспе- эксперимент состоит в случайном выборе точки из Е так, что п = {ш: ш еЩ. В качестве наблюдаемых случайных событий рассмотрим наименьшую а -алгебру, порожденную полуинтервалами [о, 6) (борелевскую а -алгебру на прямой), т. е. совокупность всех множеств, полученных из полуинтервалов с помощью не более чем счетного количе- количества объединений, пересечений и дополнений. Определим вероятности на множестве случайных событий следующим образом: 1. Если А — {ш: а ^ ш < Ь}, то P{A} = F(b) - F(a), n 2. Если A = (J Ai, Ai = {ш: о,-^ ш < 6,}, a\ < Ъ\ (8) < Ь2 < о„ < Ьп, то Р{А} = (9) Можно показать, что определенное соотношениями (8) и (9) правило вычисления вероятностей удовлетворяет всем требованиям, предъявляемым к вероятности: усло- условию неотрицательности (Р ^ 0), нормировки (Р{п} = 1) и счетной аддитивности. В качестве вероятностного пространства возьмем пространство {Г2, F, Р}, где п = {ш: w G К}, F - а -алгебра борелевских множеств, Р — правило вычисления вероятностей, порожденное соотношениями (8) и (9). Положим теперь на п ?(ш) = ш. Легко видеть, что чем и завершается доказательство. > Рассмотрим несколько примеров. 1. Равномерное распределение на отрезке [в, Ь]. Случайную величину ? будем называть равномерно распределенной на отрезке [a, b], если вероятность попадания значений этой случайной величины в любой подлромежуток (а, C) отрезка [а, Ь] не зависит от его положения на [а, Ь] и пропорциональна длине этого промежутка: P{a^t<P} = P{<*<t<p}=P{a<t^p} = k-{p-a). A0) Условие нормировки Р{а ^ а ^ 6} = 1 позволяет легко определить значение к — Р-а к = Ь~а Функция распределения дается соотношением f о, x - ь- . 1, a a' a< x 3 ж « ж ; ;«, $», A1) Равномерную на отрезке [а, Ь] случайную величину будем обозначать ( — R[a, Ь]. Числа а \лЬ назы- называются параметрами равномерного распределения.
64 . Глава XXXIX. Случайные величины и законы распределения Рис.3 2. Распределение аргумента и длины радиус-вектора случайной точки в круге радиуса г. Пусть эксперимент состоит в извлечении случайной точки из круга радиуса г с центром в начале координат, так, что веро- вероятность точке быть извлеченной из некоторого борелевского множества D пропорциональна площади этого множества S(D) P{M?D}--^-. A2) Пусть ? — угол, образованный радиус-вектором точки М с положительным направлением оси Ох, т} — длина радиус-вектора точки М. Отметим, что (hi; в рассматриваемом эксперименте являются случайными величинами, и для их функций распределения получаем (см. рис. 3) V 0<<р<2ж Р{? <<р} = Р{М € АтВО} = 5(ceKI^pa> = Ji) 7Г / iC7T так, что 1 ' 1 <р_ 1 Т ЗД) = • Г °' Р2 г2' 1, 0< о< V (D * (Л * р$ р$ р> ?2тг, > 2тг, :о, R. A3) Рис.4 Заметим, что ? — равномерная на @, 2тг] случайная величина. 3. Распределение Коши. Пусть L — прямая и А — точ- ? q ка, расположенная на расстоянии о > 0 от прямой L — (рис.4) Выберем начало отсчета в точке О, являющей- являющейся основанием перпендикуляра, опущенного из А на L. Пусть <р, -тг/2 ^ <р ^ тг/2 — угол, отсчитываемый от АО вправо или влево и составленный прямой, про- проходящей через точку А, и отрезком АО. Эксперимент состоит в следующем: случайным образом выбирается направление прямой, прохо- проходящей через точку А, и фиксируется координата точки М пересечения прямых AM и L. Случайная величина ? — координата точки М на прямой L — называется случайной величиной, распределенной по Коши, и обозначается следующим образом: ? = К[а]. По определению функции распределения х) = Р{? <х} = Р{а tg <р < х} = Р{ - - ^<р< arctg - }. I 2 «J Предположение о случайности выбора направления прямой AM дает основание для заключения о рав- равномерности распределения угла (р на промежутке [—тг/2, тг/2], при этом последняя вероятность будет
§ 1. Случайная величина 65 равна Г тг a: I arctg х /а + ж 12 1 1 х Р{ - — ^ <р < arctg — > = = - + — arctg -, [2 а) я" 2я"а так что 1 1 т A4) 1 1 х F((x)= - + - arctg -, xeR. Число а называется параметром распределения Коши. 4. Экспоненциальное распределение. Эксперимент состоит в наблюдении за временем безотказной ра- работы некоторого агрегата. Известно, что вероятность выхода агрегата из строя в любой промежуток времени длины t одна и та же и не зависит от расположения этого промежутка на временной оси. Это свойство носит название свойства отсутствия последействия и означает, что только что включенный при- прибор и этот же прибор, уже проработавший некоторое время Т, имеют одинаковую вероятность выйти из строя в течение времени от 0 до t и от Т до Т +1 соответственно. Пусть ? — время безотказной работы агрегата. Тогда свойство отсутствия последействия означает, что Предполагая, что Р{? ^ Т} > 0, и используя формулу условной вероятности, получаем Если ввести функцию распределения F((t) времени безотказной работы агрегата, то соотношение A5) примет вид F((T +1) - F((T) = [1 - F((T)]F((t). A6) Это уравнение относительно функции распределения F{(t), которая дополнительно к A6) обладает тем свойством, что F(@) — 0. Предположим, что F((t) — непрерывная функция. Тогда уравнение A6) имеет своим решением функцию t>0. A7) Случайная величина (, имеющая распределение A7), называется экспоненциальной случайной величи- величиной с параметром ц > 0 и будет в дальнейшем обозначаться так — ? — ехр[/д]. < Для доказательства формулы A7), заметим, что любая непрерывная на t ^ 0 функция F((t), удо- удовлетворяющая уравнению A6), является дифференцируемой. Действительно, пусть <р(Т) — произволь- произвольная дифференцируемая функция, обращающаяся в нуль вне некоторого промежутка (а, /?),/?> а ^ 0. Умножая обе части соотношения A6) на <р(Т) и интегрируя на полупрямой от 0 до +оо, получаем 00 j <p(T)F((T +1) dT = I ч>{ТЩ{Т) dT + j <p(T)F((t) dT-J <p(T)F((T)F((t) dT, 0 0 0 0 j I j 0 0 0 или, полагая в первом из интегралов Т +1 = и, — 00 [ <p(u-t)F((u)du = A + BF((t), A8) где 00 00 А = I <p(T)F((T) dT, B = j <p(T)[1 - F((T)] dT О О — постоянные. В силу дифференцируемое™ <р и непрерывности F( интеграл в соотношении A8) — дифференцируемая по переменной t функция. Следовательно, F((t) — дифференцируемая функция. Продифференцируем теперь A6), например, по переменной Т. Положив Т = 0, получим Fi(t) = iftO)(l - F((t)) — обыкновенное дифференциальное уравнение первого порядка относительно F((t) с начальным усло- условием i^@) = 0. Для завершения доказательства формулы A7) заметим, что F'@) = ц > 0 в силу неубывания функции распределения F^(t). > 3 Зак. 244
66 1.2. Плотность распределения Глава XXXIX. Случайные величины и законы распределения Плотностью распределения вероятностей на множестве значений случайной величины ? (коротко: плотностью распределения случайной величины) будем называть функцию f((x) ^ 0 такую, что V [а, Ь) е Е о = f dx. A9) Не всякую случайную величину можно описать плотностью — существуют слу- случайные величины, для которых функция Д (х), обладающая свойством A9), не может быть определена. Тем не менее, если плотность у случайной величины существует, то она обладает следующими свойствами: 1. B0) Легко следует из определения A9). > Замечание. Отметим, что в тех точках х ?R, где ffa) — непрерывна, имеет место соотношение dF( ~dx = h(x). B1) Вообще же, функция распределения F^(x) непрерывна на всей числовой прямой, что немедленно следует из B0). 2. Если Xq — точка непрерывности , то или P{xQ^ ?< i»)- Xq-\ Да;—» h 0 Ax} = ft(xo)Ax + О(Дж), P{.Xq ^ ? < Xq + Ax} Дж B2) B3) Замечание. Последнее соотношение означает, что «плотность» распределения вероятностей действи- действительно плотность1 «количество вероятности», приходящееся на единицу длины. < Оба соотношения B2) и B3) следуют из определения A9). > 3. Условие нормировки плотности B4) < Следует из B0) и соответствующего свойства функции распределения. > Так же, как и функция распределения (и любая другая форма, в которой может быть задан закон распределения), плотность не определяет однозначно случайную величину — разные случайные величины могут иметь одну и ту же плотность. Любая неотрицательная интегрируемая на Е функция, удовлетворяющая условию нормировки B0), может быть плотностью некоторой случайной величины. Примером
§ 1. Случайная величина. .67 такой случайной величины служит случайная величина ?, функция распределения которой дается соотношением B0), = / -00 **• < Действительно, F^(x) монотонно не убывает (в силу неотрицательности /(ж)), непрерывна на всей числовой прямой и принимает на концах зна- значения 0 и 1 соответственно. Поэтому F^(x), как это следует из теоремы предыдущего пункта, явля- является функцией распределения некоторой случай- случайной величины, для которой /$(ж) будет плотно- плотностью. > Пример 1. Нормальная (гауссова) случайная величина. Слу- Случайная величина ( называется нормальной, или гауссовой случайной величиной, если ее плотность распределения за- задается соотношением [а > 0, тп — произвольное дей- действительное число) B5) тп Рис.5 4 Отметим, что формула B5) действительно задает плотность распределения при любых значениях параметра т и любых положительных значениях параметра а, так как X — ТП 7 _У График функции f((x), описываемой соотношением B5), приведен на рис.5. При любых значе- значениях параметров тп и а это симметричная (относительно х = тп) колоколообразная кривая, быстро убывающая при х —* оо. Исходя из вероятностного смысла плотности, случайная величина, подчи- подчиненная нормальному закону, с большей вероятностью принимает значения, лежащие около х — тп, и с меньшей вероятностью — значения, заметно отличающиеся от х = тп. Параметр тп показывает расположение оси симметрии распределения m}=-, а параметр <т — степень «размазанности» вероятности по числовой прямой (рис. 6). х
68 . Глава XXXIX. Случайные величины и законы распределение Нормальное распределение характеризует следующую тенденцию в поведении случайной величи- величины: в эксперименте с высокой вероятностью реализуются значения, близкие к тп, причем чем меньше значение а, тем меньше могут отклоняться наблюдаемые в эксперименте значения ? от т. Этому качественному утверждению можно придать количественную форму. Правило За. Б подавляющем большинстве случаев значения, принимаемые случайной величиной, имею- имеющей нормальное распределение с параметрами m и о, отличаются от m не более чем на За. Точнее P{\t -m\< За} = 0,9973. B6) •4 Рассмотрим Р{\( -т\< За} = Р{т ~3а<(<3а т+За го-3 3 (х - тJ х — т = у, dx = ady и Ун = -3, ув = 3 -^-j dy = FC) - F(-3), где -00 функция Лапласа, таблица значений которой приведена на с. 69. В силу симметрии f((x) и, так как FC) = 0,99865, то для искомой вероятности получаем Р{\? ~т\< За} = 2FC) - 1 = 0,9973. > Ниже будет показано (см. Центральную предельную теорему), что при достаточно широких пред- предположениях случайные величины, являющиеся суммой большого числа независимых слагаемых, будут иметь распределение, близкое к нормальному. Нормальную случвйную величину с пврвметрами т, а будем обозначать так: ( = N[m, a]. В заключение отметим, что рассмотренные выше равномерная на промежутке [о, Ь] случайная величина, экспоненциальная случайная величина и величина, распределен- распределенная по Коши, обладают плотностями, графики которых изображены на рис. 7. Распределение, обладающее плотностью, будем называть абсолютно непрерывным распределением, а соответствующую случайную величину — непрерывной случайной ве- величиной. Экспоненциальное распределение Равномерное распределение на промежутке [а, Ь] Распределение Коши Рис.7
§ 1. Случайная величина. Если случайная величина непрерывна, то каждое свое значение она принимает с нулевой вероятностью, V х е Е Р{? = х} = 0. Это, очевидно, следует из соотношения A9). Не следует, однако, считать, что по- подобное свойство присуще лишь непрерывным случайным величинам — существуют (см. п. 2.1.4, пример 1) случайные величины, не являющиеся непрерывными, однако также обладающие этим свойством. 1 г [ У Л Таблица значений функции F{x) = / ехр< > dy v 2тг J I 2 ) X 0,0 0,1 0,2 0,3 0,4 0,5 0,6 0,7 0,8 0,9 1,0 1,1 1,2 ,,4,3 1,4 1,5 1,6 1,7 1,8 1,9 2,0 2,1 2,2 2,3 2,4 2,5 2,6 2,7 2,8 2,9 3,0 3,5 4,0 4,5 5,0 0 0,5000 5398 5793 6179 6554 6915 7257 7580 7881 8159 8413 8643 8849 9032 9192 9332 9452 9554 9641 9713 9772 9821 9861 9893 9918 9938 9953 9965 9974 9981 0,9986 9998 999968 999997 1 5040 5438 5832 6217 6591 6950 7291 7611 7910 8186 8437 8665 8869 9049 9207 9345 9463 9564 9648 9719 9778 9826 9864 9896 9920 9940 9955 9966 9975 9982 99999997 2 5080 5478 5871 6255 6628 6985 7324 7642 7939 8212 8461 8686 8888 9066 9222 9357 9474 9573 9656 9726 9783 9830 9868 9998 9922 9941 9956 9967 9976 9982 3,1 3,6 3 5120 5517 5909 6293 6664 7019 7356 7673 7967 8238 8485 8708 8906 9082 9236 9370 9484 9582 9664 9732 9788 9834 9871 9901 9924 9943 9957 9968 9977 9983 9990 9998 4 5159 5557 5948 6331 6700 7054 7389 7703 7995 8264 8508 8728 8925 9099 9251 9382 9495 9591 9671 9738 9793 9838 9874 9904 9927 9945 9958 9969 9977 9984 3,2 3,7 5 5199 5596 5987 6368 6736 7088 7421 7734 8023 8289 8531 8749 8943 9115 9265 9394 9505 9599 9678 9744 9798 9842 9878 9906 9929 9946 9960 9970 9978 9984 99931 99989 6 5239 5636 6026 6406 6772 7123 7454 7764 8051 8315 8554 8770 8962 9131 9279 9406 9515 9608 9686 9750 9803 9846 9881 9909 9930 9948 9961 9971 9979 9985 3,3 3,8 7 5279 5675 6103 6443 6808 7157 7486 7793 8078 8340 8577 8790 8980 9147 9292 9418 9525 9616 9692 9756 9808 9850 9884 9911 9932 9949 9962 9972 9979 9985 99952 99993 8 5319 5714 6064 6480 6844 7190 7517 7823 8106 8365 8599 8810 8997 9162 9306 9429 9535 9625 9699 9761 9812 9854 9887 9913 9934 9951 9963 9973 9980 9986 3,4 3,9 9 5359 5753 6141 6517 6879 7224 7549 7852 8133 8389 8621 8830 9015 9177 9319 9441 9545 9633 9706 9767 9817 9857 9890 9916 9936 9952 9964 9974 9981 9986 99966 99995
70 Глава XXXIX. Случайные величины и законы распределения 1.3. Ряд распределения Определение. Рядом распределения случайной величины ? называется такая форма зада- задания закона распределения, когда перечисляются все возможные значения случайной величины с указанием положительных вероятностей, с которыми случайная величина эти значения принимает. Ряд распределения может быть задан таблицей вида РЦ} Р\ 0-2 Р2 ап Рп ... где все а, различны, а, а,, г .Ьи 00 (*) B7) При помощи подобного ряда можно задать закон распределения только такой слу- случайной величины, которая принимает с положительными вероятностями не более чем счетное множество значений. Такие случайные величины называются дискретными. Отметим следующие очевидные соотношения: 1. B8) 2. B9) первое из которых показывает, что ряд (*) является законом распределения, а второе дает выражение для функции распределения дискретной случайной величины. Пример 1. Распределение Бернулли. Случайная величина, принимающая значение 1 с вероятностью р и значение 0 с вероятностью q = 1 — р, называется бернуллиевой случайной величиной. Ее ряд распределения дается таблицей р 0 я 1 р Функция распределения бернуллиевой случайной величины имеет вид f F((z) = \ I о, Я, 1, 0 < a: X X > o, 1, 1 (рис 8). Бернуллиева случайная величина обычно появляется в при- приложениях как индикатор (характеристическая случайная величина) некоторого события если в эксперименте п выделить событие Y, интересующее_исследователя, а все прочие события объединить в Y, так, что У -f У = п, то случайная величина ((ш) = 1, ш g У, ?(w) = 0, ш € У, будет индикатором события У 1 X Рис 8
§ 1. Случайная величина. 71 Пример 2. Биномиальное распределение. Определение. Случайная величина ? называется биномиальной случайной величиной с параметрами (п,р), если она описывает количество успехов в серии из п независимых испытаний, в каждом из которых вероятность успеха одна и та же и равна р. Обозначение: ? = В[п;р]. Ряд распределения биномиальной случайной величины (см. биномиальный эксперимент) может быть задан соотношением Функция распределения биномиальной случайной величины имеет вид C1) Отметим, что если вероятность Р{? = к} изобра- изображать вертикальным отрезком с абсциссой в точке ? = к, то распределение биномиальных вероят- вероятностей будет изображаться графической схемой, приведенной на рис. 9. Если М = ап»тах Р{? = к}, то легко видеть, что j_L 0 = М 12 3 4 5 Рис.9 = М}, М п ? поэтому p(n+l)-l ^M ^p(n + l). C2) Отсюда ясно, что вероятности Р{? = к} монотонно растут от к = 0 до к = М, а затем монотонно убы- убывают от к = М до к — п. Значение ? = М называется наиболее вероятным. Заметим, что наиболее вероятных значений у биномиальной случайной величины не более двух и по крайней мере одно всегда есть. Пример 3. Распределение Пуассона. Рассматривается последовательность п независимых эксперимен- экспериментов Q с постоянной вероятностью успеха р в каждом испытании. Будем предполагать, что вероятность успеха р крайне мала, так что успех — событие в отдельном испытании редкое, однако количество испытаний п настолько велико, что пр — А — постоянная величина. Тогда получим ej/(i- П п п-\ -Ргк = п-к . к\ n n n n Последнее дает основание для следующего определения: Определение. Пуассоновой случайной величиной с параметром А будем называть дискретную случай- pit _ u\ i ную величину, ряд распределения которой дается " ' соотношениями А* Р{? = к} = е~х —, к = О,1,2,...,к,... . C3) Обозначение: ? = П[А]. Определение корректно, так как О Таким образом, пуассонова случайная величина описывает количество успехов в серии из неогра- неограниченно большого количества испытаний в пред- предположении, что вероятность успеха в каждом от- отдельном испытании исчезающе мала. Пуассоно- вым распределением хорошо описываются такие случайные величины, как количество вызовов, посту- поступающих на АТС в единицу времени, количество звезд, наблюдающихся в заданном объеме Галактики; 12 3 4 5 Рис. 10
72 Глава XXXIX. Случайные величины и законы распределение количество деревьев, приходящихся на единицу площади леса; количество радиовктивных частиц, ре- регистрируемых счетчиком Гейгера в единицу времени, и другие. Даже такая экзотическая величина, как количество лиц, убитых ударом копыта в прусском армейском корпусе в течение года, — и та подчиня- подчиняется пуассоновому распределению. Графически распределение пуассоновых вероятностей на множестве целых неотрицательных чисел изображено на рис. 10 (А = 2). 1.4. Теорема Лебега. Обобщенные плотности Пусть ? — случайная величина, F^(x) — ее функция распределения (являющаяся, напомним, универсальной формой задания закона распределения вероятностей на множестве значений случайной величины). В некоторых случаях, наряду с функцией распределения, можно указать и другие формы задания закона распределения: плот- плотность распределения или ряд распределения. В первом из указанных случаев функция распределения F^(x) должна быть абсолютно непрерывной, т. е. X = J Щх) dx, -00 во втором функция распределения F^(x) должна быть кусочно постоянной. Ясно, что совокупность функций F{(x), которые могут служить функциями распределения эти- этими двумя классами не исчерпывается (см. теорему раздела 2.1.1). Например, кусочно абсолютно непрерывные функции i^(x) описывают случайные величины, являющи- являющиеся смесью дискретных и непрерывных. Однако помимо довольно широкого класса подобных случайных величин (о них ниже) существуют еще случайные величины, не являющиеся ни дискретными, ни непрерывными, ни смешанными. Пример 1 (Канторова лестница). Пусть С — канторово множество на отрезке [0,1]. Определим функ- функцию F^(x) следующим образом: F((x) = О, х < 0, и F((x) = 1, х > 1. На отрезке [|» 5] положим F((x) = j, на отрезках [i, |1 и [|, |1 положим соответственно Щх) = |и F((x) = |. На отрезках [if' §r]' [^' Ы' Ш' Щ и Ш' Щ пРипишем Fdx) значения \, \, | и \ соответственно, и так далее, до бесконечности (рис. 11). Отметим следующие свойства определенной таким образом функции F^(x): 1. F((x) монотонно не убывает, 2. F((x) принимает все значения из промежутка [0,1], 3. F((x) непрерывна на R, 4. F((x) постоянна в окрестности любой точки, не принадлежащей множеству С. О 1/3 2/3 Рис.11
i 1. Случайная величина. 73 Пусть теперь ? — случайная величина, для которой F^(x) — функция распределения. ? не явля- является дискретной, так как F((x) — непрерывна, и следовательно, Р{( = ж} = 0 Va: € R. ? также не является непрерывной, так как в этом случае функция F((x) должна была бы восстанавливаться по своей производной, но по свойству 4 производная почти всюду (во всех точках отрезка [0, 1] за исключением точек канторова множества) равна нулю. Этот пример является в некотором смысле исчерпывающим: оказывается любая случайная величина — это «смесь» дискретной, непрерывной и сингулярной (подоб- (подобной рассмотренной в примере 1 случайных величин. Точнее, имеет место следующая теорема. Теорема Лебега. Если ? — случайная величина с функцией распределения F{(x), то суще- существуют функции FH(x), Fa(x) и Fc{x) такие, что F((x) единственным образом предста- вима в виде Щх) = FH(x) + Fa(x) + Fc(x) C4) и при этом 1. 00 3 f{x) > 0, .FH(x) = J f{x) dx, J fix) dx = q<\, C5) -00 —00 2. 00 MZi, fob"., ft > o, 2J л = j» = i - «, ЗД = 2J ft, C6) t=l t:oj<z 3. Fc{x) — непрерывна на R, монотонно не убывает и постоянна почти всюду, имеет изменение, равное 0 < г < 1, так что p + q + r = 1. Если сингулярная компонента отсутствует, то случайная величина ? является «сме- «смесью» дискретной и непрерывной компонент C7) В дальнейшем в этом случае нам будет удобно использовать следующее соглашение: если через 6(а:) обозначить дельта-функцию Дирака, обладающую тем свойством, что 00 1. / 6ix) dx = 1, -оо оо 2. J 6(x)f(x) dx = /@), —00 то обобщенной плотностью распределения C7) будем называть формальное выражение вида C8) где 7 7 -i fix)dx = q; C9) '='
74 Глава XXXIX. Случайные величины и законы распределения так что о Pit € [а, 6)} = J 9i{x) dx a И x x / g^x) dx= f(x) dx+ ^ p{ = FH(x) + Fu\ -oo -oo t: a'<x Последнее соотношение является формальным анало- аналогом соотношения B0), дающего выражение функции распределения через плотность. В дальнейшем мы бу- будем понимать обобщенную плотность д$(х) как услов- условную форму записи интегральных соотношений D0). Пример 2. Пусть ? = Д[-1, 1], т) = тах(?, 0). Найдем закон распределения случайной величины г\. F((x) = P{q <х} = Р{тах(?, 0) < ж}. По определению ? не принимает значений, больших 1. Поэтому в то же время тах(?, 0) ^ 0, откуда Р{г} < х} = 0, х Для х € @, 1) получим F((x) = P{max(?, 0) < х} = 0. х} = D0) Рис. 12 (рис. 12). Это распределение является распределением описанного выше типа. Обобщенная плотность может быть представлена здесь в виде О, х < О, I о, х> 1. § 2. Системы случайных величин — случайные векторы Пусть {п, F, Р} — вероятностное пространство и каждому элементарному исходу ш G Г2 поставлена в соответствие упорядоченная совокупность пдействительныхчисел Определение. Будем называть Е,(ш) случайным вектором, или системой п случайных величин, если для любого параллелепипеда П" П" = {х G К": а,- ^ хг < Ь„ г = 1, 2,... , п} множество тех w G Г2, для которых Цш) G Пп, является случайным событием. В этом случае легко показать, что случайными событиями будут и все события вида {ш: В,(ш) = А}, где А — произвольное борелевское множество в Е" и тем самым можно определить вероятностную функцию определенную на а -алгебре борелевских множеств в Шп.
§2. Системы случайных величин — случайные векторы 75 Понятие случайного вектора формализует в теории вероятностей возможность в одном эксперименте зафиксировать несколько различных числовых показателей. Пример 1. Эксперимент состоит в случайном выборе точки М из круга К = {(х,у): х2 + у2 ^ 1} на плоскости R2. Пусть ?i — абсцисса, а & — ордината выбранной точки. Тогда ? = {?ь &} — случайный вектор. < В силу случайности выбора точки из круга К можно считать, что для любого борелевского множества А С К вероятность выбора точки М пропорциональна площади этого множества Р{м ел} ж Вектор ? — радиус-вектор точки М. Для любого борелевского В С К2 получаем „, S(BHK) ж Рис. 13 (рис. 13), и тем самым для произвольного борелевского множе- множества В G R2 определена вероятностная функция Ф^(В) = Р{? € В}. )> Легко установить, что компоненты случайного вектора — случайные величины. Несколько менее очевидно, но столь же легко устанавливается, что если ?], ?2? • • •, ?п — случайные величины в некотором эксперименте, и А — борелевское множество из Еп, то событие {w: E,(w) Gi}- является случайным событием в этом эксперименте и, следовательно, ?, = {?ь ... , ?„} — случайный вектор. С компонентами случайного вектора можно производить различные операции, и в подавляющем большинстве случаев результат этих операций является осмысленным с рассматриваемой — вероятностной — точки зрения, т.е. случайной величиной. Точнее, имеет место следующая Теорема. Пусть Е, — случайный вектор, а у?(х) = <р(х\, • • • , хп) — борелевская функция в Еп. Тогда Г) = (р(Е,) является случайной величиной. < То обстоятельство, что <р — борелевская функция, означает, что прообраз полу- полуинтервала (р~1([а, &)) является борелевским множеством в Еп, а это, в свою очередь, означает, что (р(Е,) — случайная величина, так как {о;: [а, Ь)} = {о;: ^"'([а, Ь)) Э Особо отметим, что сумма, разность, произведение, частное (если знаменатель «почти всегда» не нуль) пары случайных величин будут случайными величинами. Случайными величинами будут также результаты применения любых непрерывных, кусочно непрерывных или монотонных функций к случайным величинам. 2.1. Законы распределения случайных векторов Пусть ?,{?], ... , ?„} — случайный вектор, и А — произвольное борелевское множество . Законом распределения ?, будем называть любое правило, позволяющее вычислять в вероятности = Р{ш: А}. B) Как и в случае одномерных случайных величин, закон распределения случайного вектора может быть задан в произвольной форме. Универсальной формой задания за- закона распределения случайного вектора является функция распределения, определяемая
76. Глава XXXIX. Случайные величины и законы распределения соотношением Ft(x) = *?,,...,?n(zi,...,«„) = Р{?, < ж,; fc < ж2; ... ; & < ж„}. C) Как и выше (см. п. 2.1.1), легко устанавливаются следующие свойства функции C). 1. Ограниченность х2) 2. -Ff,(x) — закон распределения. Чтобы не загромождать изложение выкладками, приведем в ка- качестве примера формулу нахождения вероятностей Р{?, (Е П"} через значения .FV(x) для п = 2 (рис. 14): G П2} = а2 ft,; о2 ^ 6 О D) ь\ х\ Рис. 14 3. «Монотонностк» V х, у € К" таких, что х < у (т. е. ж,- < од, г = 1> 2,... , п) 4. Существование пределов :лева lim F? |х|--оо V/ у —>• у у < .(*) = % X, 0, п = lim min ж,-— > 1, 2,. i >OO ... V ) = ь lim -Ff,(x). х„-»х 5. Непрерывность слева Аналог теоремы п. 2.1.1 справедлив и в этой ситуации. Отметим, что знание функции распределения случайного вектора позволяет опре- определить функцию распределения любого подвектора, в том числе и функции распреде- распределения отдельных компонент. Действительно, пусть {&,, ?,-2,... , ?tjt} = Е,\ — подвек- тор случайного вектора ?,= {?i ,&? •••>&»}• Тогда 5=1,2,...,*} в частности, ^.(zi) = lim {Zj-> OO,J#t} , ж2,... , хп). Знание законов распределения компонент вектора ?, не позволяет, вообще говоря, восстановить функцию распределения вектора. Впрочем, это понятно — индивиду- индивидуальные законы распределения компонент не учитывают информацию о возможном их взаимодействии. Подробнее этот вопрос мы обсудим ниже. Определение. Плотностью распределения случайного вектора ?, назовем такую функцию Д(х) ^ 0, х G К", что для любого борелевского Л С К" Р{Е, х) dx = JJ.. j ,... , хп) dxx ... dxn. F)
§ 2. Системы случайных величин — случайные векторы. .77 Отсюда же ясно, что плотность Д (х) чаще всего действительно имеет механиче- механический смысл «плотности» — это «количество вероятности», приходящееся на единицу меры (длины, площади, объема, п-мерного объема). В самом деле, в каждой точке непрерывности функции Д (х) получаем, что существует предел hm ц(А) = Д(х). G) Ясно, что Л(х)Ас = Rn и X Xj Xn 0 = / Д(х) dx= I.. .1 Д(а?1, ж2,... , xn) dxx... dxn. (8) -00 -00 -00 Во всех точках непрерывности плотности имеем дифференциальный аналог соотно- соотношения G): Случайные векторы, обладающие плотностью распределения, называются непре- непрерывными. Всякий подвектор непрерывного случайного вектора является непрерыв- непрерывным случайным вектором, плотность распределения которого можно найти из соот- соотношения 00 00 -00 -00 •••' ж«) dxi\ A0) В частности, плотность t-ой компоненты дается формулой 00 00 i(xi) ~ I'] ... dxn. -oo -oo Обратное неверно, т. е. непрерывность компонент не гарантирует непрерывности случайного вектора. Как и в случае с функцией распределения, индивидуальные плотности не по- позволяют находить совместную плотность распределения случайного вектора, так как в общем случае не содержат информации о возможном взаимодействии компонент. Если случайный вектор принимает не более чем счетное множество значений, то его закон распределения может быть задан в форме ряда распределения, в котором перечислены возможные значения вектора с вероятностями, соответствующими этим значениям Е, Р{Е, = а;} ai Р\ а2 Р2 а„ Рп ¦ • • • ¦ • 00 Все точки aj G En в этой таблице различны и ]Г} pj = 1. ii
78 Глава XXXIX. Случайные величины и законы распределения Очевидным образом имеем: 1. для любого борелевского множества А С К", р{?, е а} = ]Г Р{?, = (Н) 2. A2) Неравенство а, < х в последнем соотношении понимается как покомпонентное а,- < х ^ а) < a?j, j = 1, 2,..., п. Такие случайные векторы называются дискретными. Всякий подвектор дискретного вектора также является дискретным случайным вектором. Его ряд распределения задается таблицей Р{Ь = b,} b, Я\ b2 ь. .,. где Ь, = {а*,, а*2,..., a'fc} — подвектор вектора аг = {а!, а2,..., а„}, а вероятности причем суммирование в последней сумме ведется по всем значениям аг вектора содержащим в качестве подвектора вектор Ь, = {а*^, а'2,... , а* }. Ряд распределения г-й компоненты представлен в таблице 6 р *} Ч\ а] 42 Здесь а* — значения г-х компонент векторов-значений случайного вектора ?,, т. е. а,, = аГ}, где суммирование ведется по всем г таким, что векторы аг имеют одинаковую %-к> компоненту а\. Этими двумя классами случайных векторов (т. е. непрерывными и дискретными) многообразие возможных систем случайных величин, конечно, не исчерпывается. От- Отметим, в частности, еще два важных для приложений класса — это, во-первых, «сме- «смеси» дискретных и непрерывных случайных векторов, в том числе случайные векторы, у которых часть компонент дискретна, а часть — непрерывна; а во-вторых, абсолютно непрерывные распределения, сосредоточенные на множествах, размерность которых меньше размерности объемлющего пространства. Существуют и другие случайные векторы, на особенностях распределения которых мы останавливаться не будем, вви- ввиду их «экзотичности». В реальной ситуации они, как правило, не встречаются. Что касается перечисленных, то для единообразного описания их законов распре- распределения воспользуемся, как и выше (п. 2.1.4), символической формой представления обобщенных плотностей, выразив последние через дельта-функцию множества. Пусть 7 — некоторое множество точек Е". Дельта-функцией множества j назовем функцию 67 (х), определенную в Е" всюду, кроме точек множества j, обращающуюся
§2. Системы случайных величин — случайные векторы 79 в нуль во всех точках х ? 7 и обладающую тем свойством, что для любой непрерывной функции /(х) J /(xN7(x) dx = J /(x7) dx7, х G En, х G 7. A3) Rn Определение. Обобщенной плотностью распределения случайного вектора ?, = &? • • • » in} будем называть формальное выражение вида 00 00 t=I j=\ где 1. функция Д(х) неотрицательна, Д(х) ^ 0, интегрируема и j Д(х) dx = q, 0 ^ q ^ 1, оо 2- ]С Pi — Р> 0 ^ р ^ 1, где 6аДх) — дельта-функция точки а,-, 3. для любого j функции у?7-(х) неотрицательны, интегрируемы на соответствую- соответствующем множестве 7j С К" и / V>7,-(xi) dxi = rJ' 2 ri = г» 0 ^ г ^ 1, i i i » ^ ^ , р + g + г = 1. При этом для любого борелевского множества Л С К" получаем, что A5) Р{Е, € Л} = у gt(x) dx = у Д(х) dx+ Именно в смысле равенства A5) мы и будем в дальнейшем понимать формальное выражение A4) для «обобщенной плотности». Рассмотрим несколько примеров, иллюстрирующих введенные понятия. Пример 1 (полиномиальное распределение). Пусть в эксперименте п выделена полная система несо- несовместных событий NJt j = 1, 2,..., к, таких, что P{nj } = pj. Случайный вектор ?, = {т\, тг,..., т*}, У-я компонента которого — количество осуществлений события «_,- в серии из п независимых испыта- испытаний, носит название полиномиального случайного вектора. Легко убедиться в том, что полиномиальный случайный вектор дискретен. Его ряд распределения дается соотношением mlm[^PTW-lP, A6) или, в векторной записи, Пример 2 (равномерное распределение в круге). Пусть (?ь 6) — координаты случайной точки в круге радиуса 1 с центром в начале координат. «Случайность» точки в круге понимается так, что вероятность ее попадания в любую область внутри круга пропорциональна площади этой области
80 . Глава XXXIX. Случайные величины и законы распределения Заметим, что в каждой точке х G К существует предел (см. соотношение F)) . Pit e ах} 1 НШ ; г = — , в(л,)-.о S{AX) ж где Ах — окрестность точки х. Поэтому определена функция ( -, хек, /(х) = ( я- I 0, xtK, являющаяся плотностью распределения случайного вектора ?, так что для любого борелевского В € в Тем самым, случайный вектор ? — непрерывен. Пример 3. Пусть ? = {?ь &} — случайный вектор единичной длины. В данном случае случайность понимается так: вероятность того, что напрввление ( на плоскости задается диапазоном углов от щ до <pi, пропорциональна этому диапазону; Р{<Ро ^ <р ^ <pi) = —-—; 0 < ^о < <Р\ < 2я\ Множество значений вектора t совпадает с множеством точек единичной окружности х2 + у2 — 1. Следовательно t не явля" ется дискретным. Не является он и непрерывным, так как легко установить, что для всех точек, лежащих на единичной окруж- окружности, предел не существует, а во всех прочих точках плоскости равен нулю. Эта случайная величина может быть описана обобщенной плотностью д^(х, у), задаваемой соотношением , , 1 . . . где dxi+vi=l(x, у) — ^-функция окружности. Действительно, для любого борелевского А С К2 получаем Рис. 15 22 А ЛЛ(*2+у2=!) (см. рис. 15). 2.2. Независимость случайных величин. Условные законы распределения Как уже было отмечено выше, знание индивидуальных законов распределения ком- компонент случайного вектора не дает полной информации о совместном их законе рас- распределения. Дело в том, что индивидуальные законы не позволяют учесть возможное взаимодействие компонент. Пример 1. Пусть ?i — равномерная на @,1] случайная величина. Тогда & = ?i — также равномерна на [0, 1], а совместное распределение (?|, &) сосредоточено на отрезке 5 = {(*, у): х = у; 0 ^ х ^ 1} и может быть описано обобщенной плотностью вида 0, 1 A7) В то же время двумерная случайная величина ? = {^ драте К = {(х, у): 0 ^ х, у ^ 1} описывается плотностью (*, у) i s, (х, у) е s. >&}> равномерно распределенная на ква- (х,у)?К, A8)
§2. Системы случайных величин — случайные векторы 81 и ее компоненты, как следует из соотношения A0) оо О 9b(*) = / ^ifcfo У)*У= j 9(.\bix, У) йУ + -00 -00 1 00 0 1 также равномерны на [О, 1]. Таким образом, при одном и том же характере распределения компонент совместные распределения A7) и A8) совершенно различны. Одно из центральных понятий теории вероятностей — независимой случайной величины — проливает свет на описанную выше ситуацию и позволяет внести ясность в рассматриваемый вопрос. Определение. Случайные величины ?| и & называются независимыми, если для лю- любых борелевских множеств В\ и В2 на прямой случайные события А\ = {ш: ^ 6 В\) и А2 — {ш\ & 6 В2} независимы. Как мы знаем (см. гл. XXXVIII), для независимости событий А\ и А2 необходимо и достаточно, чтобы выполнялось соотношение Р{?| € В,; 6 € В2} = Р{?, € В,}Р{6 € В2} A9) для любых В\, Вг, а это, в свою очередь, имеет место тогда и только тогда, когда для любых полуинтервалов [аь /3,) и [а2) fa) справедлив аналог соотношения A9), P{«i < 6 < ft; в2 < 6 < А) = -P{«i < 6 < Р\)Р{<*2 < 6 < А}- B0) Соотношение A9) показывает, что в случае независимости двух случайных вели- величин совместный закон их распределения полностью и однозначно восстанавливается по индивидуальным законам распределения компонент. В частности, легко устана- устанавливается следующая теорема. Теорема. Случайные величины ^ и & независимы тогда и только тогда, когда имеет место равенство Filb(x1y) = Ftl(x)FB(y)t B1) т. е. совместная функция распределения равна произведению индивидуальных. М Необходимость немедленно следует из A9), если только В\ = {-оо, х} и В2 = {-оо, у}. Для доказательства достаточности воспользуемся формулой D). Пусть равен- равенство B1) имеет место. Тогда lt a2) = - Fit {<*x)Fi2{(J) - Fix {px)F )] =P{<*\ откуда в силу сделанного выше замечания о равенствах A9) и B0) следует искомое. > Аналогичные утверждения можно установить и для специальных классов распре- распределений: дискретных, описываемых рядами распределения, непрерывных, описывае- описываемых плотностями, а также более сложных, описываемых обобщенными плотностями. А именно, имеют место следующие утверждения.
82 Глава XXXIX. Случайные величины и законы распределения Утверждение 1. Если ?\ и ?г — дискретные независимые случайные величины с рядами распределения соответственно Р{?\ — а,} = pt, i = \, ... ,п, ... и Р{& — fy} = q^ j = 1, 2,... , m,..., то двумерный случайный вектор ? = {?ь ?i) дискретен и его ряд распределения дается соотношением Р{?\ = <*»; ?2 = bj}=№j- Верно и обратное: если компоненты двумерного дискретного вектора таковы, что Р{?х = ац ?2 = bj} = ptf, = а>}р{?2 = ajh то они независимы. < Доказательство немедленно следует из определения независимости и соотноше- соотношения B0). > Утверждение 2. Еслислучайные величины ?\ и & непрерывны и независимы, то двумерный случайный вектор ? = {&, &} непрерывен и его плотность равна произведению индивиду- индивидуальных плотностей Лй(*1»«2) = Л(*1)/б(*2). B2) Верно и обратное: если V Х\, хг совместная плотность распределения представима в ви- виде B2), то компоненты вектора ? — независимые случайные величины. Замечание. Если компоненты случайного вектора непрерывны, то это, как показывает рассмотренный выше пример, не гарантирует непрерывности собственно вектора как двумерной случайной величины. Поэтому утверждение о непрерывности вектора {ft, &} является не менее важным, чем формула B2). Оба же эти утверждения оказываются справедливыми в силу независимости случайных величин ft и & • •4 Пусть Д, («i) — плотность распределения случайной величины ft, а Д2 (ж2) ~ случайной величины B. Из независимости ft и ft заключаем, что V а\ ^ Ь(, а2 ^ Ь2 bi th Ь| &2 / /" /" / = / /fiv^i) *^*i " / fhx^'v dx2 = I I /fi(Z|) ft2\X2) dX] dx2. J J J J О| 02 1| 02 Значит, для любого прямоугольника П = {в) ^ Х\ < Ь\; а2 ^ х2 < Ь2] функция /f|B(zi, x2) = /f,(zi)/fo(z2) такова, что Pit € Щ = JJ fil(i(xux2) dxi dx2. п Отсюда следует справедливость аналогичного соотношения для любого борелевского А, что и завершает доказательство необходимости соотношения B2). Так же просто убеждаемся в обратном P{t G П} = JJ fith(xux2) dxx dx2 = JJ /(,(a;i)/&(z2) dx\ = J dxx J /(,(zi)/6(x2) dx2 = П П «1 «2 »l »2 = J /<,(*,) dxi У f<2(x2) dx2 = P{e, ^ ft < 6,}P{e2 ^ ^2 < b2}- > "I a2 Утверждение 3. Если случайные величины ?\ и ?2 — независимы и обладают обобщенными плотностями д^ {х\) и д^2(х2) (см. соотношения A8)), то двумерный случайный вектор ? = {?i, ?2} обладает обобщенной плотностью A4) и имеет место равенство
§2. Системы случайных величин — случайные векторы. 83 < Доказательство повторяет формальные выкладки из предыдущего утверждения с учетом следующих технических замечаний: 6(хх - а, б(х2 - bj x2=hj{x\, x2). > Суммируя вышеизложенное, отметим, что независимость двух случайных величин содержательно эквивалентна отсутствию влияния одной из случайных величин на дру- другую: изменение одной из них не влияет на закон распределения другой. Если же это не так, т. е. информация о значениях, принятых одной из случайных величин, меняет наши представления о законе распределения другой случайной величины, то мы го- говорим, что случайные величины зависимы. В этом случае разумно описывать влияние случайных величин друг на друга системой условных вероятностей, образующих так называемые условные распределения, к рассмотрению которых мы и перейдем. Рассмотрим пару случайных величин (?,, &) > совместный закон распределения которых Ptf, 6 Л,, & С А2} = *ьь(Аи А2). Пусть Р{?2 6 А2} Ф 0. Определение. Условным законом распределения Ф^, \^2(А\\А2) компоненты {случайной ве- величины) {, относительно события & 6 Лг назовем любое правило, позволяющее вычи- вычислять условные вероятности Р{?, 6 А\ |& 6 А{\ для произвольных борелевских А\. По определению условной вероятности получаем, что Ai\A2) = I 1 '{& e 3{?i e p\ Ai\ An 6 \A: Z J 6 «} 42] As Ч(А2 A2) ) B3) В частности, если Р{?г < х\} > 0 для некоторого х\, то можно определить условную функцию распределения ?, относительно & B4) она будет определена при всех ж, G Если ? 1 и ?2 — независимы, то и х2 > Из соотношения B3) получаем аналог «правила умножения» B1) функций распреде- распределения для зависимых случайных величин B5) Аналогично определяются условные законы для & относительно
84 Пример 2. Пусть ?i — равномерная на [-1, 1] случайная вели- величина и ?2 = ?i • Индивидуальные функции распределения компо- компонент даются в этом случае соотношениями: Глава XXXIX. Случайные величины и законы распределения xik 1" О, *¦(,(*¦) = +1 О, х\ <-1, -1 ^ ЯГ| <1, х\ ^ 1; ЯГ2<-1, — 1 ^ a:2 < 1, 1, Совместный закон распределения может быть описан обоб- обобщенной плотностью 0{|{2(жь хг) — 0/4)>/2 • 67(х\, х2), где -у = {(х\, хг)'- — 1 ^ х\ — х2 ^ 1}. Распределение вектора ?° с ком- компонентами FIг) сосредоточено на отрезке прямой х\ = х2 (рис. 16). Функция распределения вектора ( {О, (х, <-1) U (х2 <-1), 2 > A*11 ^ 0 и A*21 ^ 1)> 1, (в, > 1) П (Х2 > 1). Условные законы имеют, очевидно, следующий вид (рис. 17): О, х2 < -1, о, «2 1, х2>хх\ Х\ > XI. Рис. 17 1 х Отметим, что несмотря на непрерывность компонент & и ?2> вектор ^ = {^, 6} непрерывным не является, так как непрерывность компонент случайного вектора — условие, лишь необходимое для непрерывности вектора; оно становится и достаточ- достаточным только при условии независимости компонент. Предположим теперь, что случайный вектор (?i, &) непрерывен, т.е. обладает плотностью распределения /м2(х\> Х2)- В этом случае, как мы знаем (см. A0)), ком- компоненты ?| и ?2 также непрерывны с плотностями 00 = J i, «,i=l,2. -00
85 §& Системы случайных величии — случайные векторы Если в некоторой окрестности Sx*2 точки х2 выполняется неравенство f^{x2) > О, то можно определить условный закон распределения случайной величины ?j относи- относительно события {?2 = хг}'- Фй ,&(j4, 1*2> = P{ti € Л, 16 = х2} = lim Р{е, € Ах |6 € = lim = lim X2+Ax /б(«2> f dx\. B6) Последнее соотношение дает основание для следующего определения. Определение. Условной плотностью распределения вероятностей случайной величины ?i относительно события {& = ж2} называется функция Д, i^^i 1Ж2) такая, что для любого борелевского А\ выполняется соотношение € х2} = B7) Сравнивая B6) и B7), заключаем, что у каждой компоненты двумерного непре- непрерывного вектора существует условная плотность относительно значений другой ком- компоненты, принимаемой с положительной вероятностью (например, относительно тех значений & = Х2, Для которых Р{& € S^1} > 0). Она дается равенством B8) B9) Отсюда получаем правило умножения плотностей = Д, В случае независимости компонент ^j и & из B8) следует т. е. информация о значениях, принятых компонентой ^2, не меняет закона распреде- распределения компоненты &. Определение B7) и соотношение B8) позволяют в рассматриваемой ситуации по- получить континуальные аналоги формул полной вероятности и Бейеса (см. гл. XXXVIII). Теорема (формула полной вероятности). Пусть (?,, &) — непрерывный двумерный случайный вектор. Тогда 00 = у C0) — 00
86. Глава XXXIX. Случайные величины и законы распределения < Действительно, соотношение A0) дает 00 -00 Остается только воспользоваться второй частью правила умножения B9). > Теорема (формула Бейеса). Пусть (?i, &) — непрерывный двумерный случайный вектор. Тогда C1) 00 / -00 борелевского В С В} = S(B) S(B) S(K) я- ' Следовательно, плотность распределения случайной величины дается соотношением: 0, {хх,х2) -, (xi,x2)CK. /Г Плотности компонент соответственно равны (рис. 18) О, N -^ Доказательство следует из B8) с использованием правила умножения B9) и формулы полной вероятно- вероятности C0). > Рассмотрим пример, иллюстрирующий введенные К понятия. Пример 3. Пусть ? = {?|, &} — двумерный вектор, равномерно распределенный в круге К = |(ж|, х^): х\+х\ ^ \\. Для любого М Рис. 18 [ -4 Для условных плотностей из B8) получаем О, где /х, = 2J1 — a;J — длина хорды MN, 1/х О, где 1Х2 = lJ\ - х\ — длина хорды KL. '«2 1/тг 1 . . |а:,|>1, |яг2| > 1,
§ 2. Системы случайных величин — случайные векторы. 87 Заметим, что при фиксированном значении х\ компонента ?2 равномерно распределена на хор- хорде MN; аналогично ?| равномерно распределена на KL при фиксированном xi. В то же время, частные распределения равномерными не являются. Очевидна зависимость компонент ?| и ?2 — изменение значений одной из компонент вызывает изменение диапазона возможных значений другой и, следовательно, ее закона распределения: если ?| принимает значение, скажем, 1, то & может принять только нулевое значение, если же ?| = 0, то & может принять любое значение в диапазоне от -1 до +1. Наконец, если ? = {?i, ?2} — дискретный вектор с рядом распределения 1 П1 = a,} ai Pi a2 Vi a* Pk ... поненты ?, также дискретны с рядом р 6 P{t*«)} 4 я\ 4 я\ 4 и i = 1, 2; a], aj — возможные значения соответствующей компоненты (т. е. просто различные первые — а1к — или вторые — а\ — координаты векторов а*). При этом где суммирование ведется по всем таким точкам as(aj), первые (вторые) координаты которых совпадают с ак \ Если Р{& = 4} > 0> т0 условный ряд распределения компоненты fi относи- относительно события {?2 = 4} можно определить так = <*U 6 = 41 s' " -^-. C2) Как и выше, из C2) можно получить правило умножения рядов распределения для зависимых компонент, а также дискретные аналоги соотношений C0) и C1), являющиеся обобщением формул полной вероятности и Бейеса на случай не более чем счетного числа гипотез.
Глава XL ФУНКЦИИ СЛУЧАЙНЫХ ВЕЛИЧИН Задача установления закона распределения функции от случайных величин по за- заданному закону распределения аргументов является основной. Общая схема рассуждений здесь следующая. Пусть rj = <р(?), и ^f(^) ~~ закон распределения ?. Тогда очевидно имеем Ф,{[а, Ь)} = Р{г, € [а, Ь)} = Р{р(?) € [а, &)} = Р{? € *Г'([а, &))}, (*} где <р~1{[а, Ь)} — полный прообраз полуинтервала [а, Ь) в Еп, т.е. совокупность тех значений вектора ? из Еп, для которых а ^ <р(?) < Ь. Последняя вероятность легко может быть найдена, так как закон распределения случайных величин ? известен pj?g (р~1([а, &))} = Ф{{<р~1([а, Ь))}. (¦¦) Аналогачно, в принципе, может быть найден закон распределения и векторной функ- функции случайных аргументов. Сложность реализации схемы (*)-(**) зависит только от конкретного вида функ- функции (р и закона распределения аргументов. Настоящая глава посвящена реализации схемы (*)-(**) в конкретных, важных для приложений, ситуациях. § 1. Функции одного переменного Пусть ? — случайная величина, закон распределения ко- которой задан функцией распределения F$ (x), rj = <р(?). Если F^y) функция распределения случайной величи- величины »/, то приведенные выше соображения дают F4(y) = Р{п <у}= РЫО <у} = где через <р~1 (—оо, у) обозначен полный прообраз полу- полупрямой (-оо, у). Соотношение A) является очевидным следствием (*) и для рассматриваемого случая проиллю- проиллюстрировано на рис. 1. Монотонное преобразование случайной величины Пусть (p(t) — непрерывная монотонная функция (для определенности — монотонно невозрастающая) и rj = <p(?). Для функции распределения F^y) получаем Чу) =
§ 1. Функции одного переменного 89 (здесь (р~' (у) — функция, обратная к ip(t), существование которой обеспечивается мо- монотонностью и непрерывность ip(t)). Для монотонно неубывающей tp{t) аналогичные выкладки дают F4{y)=Fi{Hr\y)). C) В частности, если (р — линейна, ip(t) = at + b, то при о > 0 (рис. 2) а при а < О D) E) У а>0 Линейные преобразования не меняют характера распределения, а сказываются лишь на его параметрах. Рис. 2 Линейное преобразование равномерной на [а, Ь] случайной величины Пусть ? = Я[а, Ь]. Тогда rj = (? - а)/(Ь - а) - Д[0, 1]. Линейное преобразование нормальной (т, <г) случайной величины Пусть ? = JV[m, а]. Тогда г) = (? - т)/а = iV[0, 1], и вообще, если 7) — то г] = N[am + Ь, \а\ • а]. < Пусть, например, а > 0. Из D) заключаем, что (у-Ъ)/а + Ь, -оо Положим в последнем интеграле и = ах + Ь. Эта замена дает 1 Г Г (и =ws У ехр{ — -атп-ЬJ iu=N[am+ь' —00 Важное тождество, являющееся источником многих интересных приложений, мо- может быть получено из соотношения C) при <p(t) — Лемма. Если ? — случайная величина с непрерывной функцией распределения F^(x), то слу- случайная величина г} = F{(?) —равномернана [О, 1]. ¦4 Имеем F{(x) — монотонно не убывает и заключена в пределах от 0 до 1. Поэтому Г 0 г/<0 I h У * 1- На промежутке же 0 ^ у < 1 получаем = FdFfl(y)) = у-
90. Глава XL. Функции случайных величин Одним из возможных путей использования доказанной леммы является, напри- например, процедура моделирования случайной величины с произвольным законом распре- распределения F{(x). Как следует из леммы, для этого достаточно уметь получать значения равномерной на [0, 1] случайной величины, тогда значения ? могут быть получены из тождества ? = Р[1(т)), 1? = Л[0,1]. F) В заключение заметим, что если случайная величина ? непрерывна и функция ip(t) не только монотонна, но и дифференцируема, то т) также непрерывна. При этом плотность случайной величины щ легко может быть получена из B) или C): Му) = ^ Чу) = ^ G) Если <p(t) свойством монотонности не обладает, то результат может быть получен скрупулезным следованием логике соотношения A), как показывают приводимые ниже примеры. Распределение квадрата равномерной на [—1, 1] случайной величины Пусть ? = R[-l, 1] и 7) = ?2. Рассмотрим (рис. 3) 0 < у < 1: Fv(y) = p{v <y} = P{i2 <y} = 0, у < 0, Отсюда для плотности получим О, у < 0 U у > 1 Рис.3 Рис.4 Распределение случайной величины, обратной к случайной величине с распределением Коши Пусть ? = А:[1] — случайная величина, имеющая распределения Коши (см. п. 2.1.1) и F{(x) = 1/2 4- 1/тг arctg x, x G Е. Положим 7/ = 1/? (рис. 4). Следуя A), получаем:
§2. Функции двух переменных. Действия над случайными величинами .91 *¦„(») = Пч < у) = ^ < »} = > Х- и i < 0 } = 1 1 = 1 arctg - 7Г у 1 /тг \ 1 1 = 1 ~ 7Г \1 ~ arCtg У) = 2 + 7Г arCtg У' Таким образом, если ? = fc[l], то и ? = §2. Функции двух переменных. Действия над случайными величинами Пусть ? = {? 1, &} — двумерный случайный вектор с законом распределения = Р{? € В}, у?(Л) = <p(t\, t2) — борелевская функция двух переменных, у у() = (р(?и ?2)- Как и выше, задачу нахождения закона распределения случай- случайной величины г} решает схема (*)-(**). В частности, умение решать эту задачу да- дает возможность производить арифметические действия над случайными величинами: складывать, вычитать, умножать, делить и т. п. Особенно важным для дальнейшего является случай независимых компонент вектора ?, на котором мы будем всякий раз останавливаться подробнее. Распределение максимума двух случайных величин Пусть rj = тах{? 1, ?2}, ^Нх) ~~ Функция распределения вектора f. , ?2) < у} = Ptfi < у; 6 < у} = Щу, у). A) Если вектор f непрерывен и существует плотность распределения ? - /^(х), то г) также непрерывна и, очевидно, ее плотность дается соотношением у Г i>y)dXi 9F~ Jh{yu -00 —00 Если дополнительно компоненты ?i и ?2 — независимы, то C) D) а в случае непрерывности Ш = Д, (УШУ) + F Распределение минимума двух случайных величин Пусть г} = min{?], &}> i^(x) — функция рас- распределения вектора ?. Для последней вероятности получаем (рис. 5). ,, 6) ^ 2/} = Ptfi > »; 6 > »} = = 1-1^, (у) - ^2(У) Рис.5
92 Глава XL. Функции случайных величин Действительно, из следует 2 F > у; 6 > у} + И\ < у} + {6 < у} - F < у; 6 < у} = {? е R2}, а из последнего легко получается E). Окончательно имеем Чу) = *Ь (у) + *&(у) - **&(у. у)- F) В случае непрерывности ? с плотностью /^(х) получаем, что rj также непрерывна и у у Ш = Л, (У) + /ft (У) " / /<(*ь У) <**! " / Л (У. *2) dx2. G) —00 —00 Если ?i и ?2 — независимы, то Чу) = **, (у) + ^2 (у) - ^, (у) • ^2(у) (8) и для непрерывных ? /,(у) = Л, (у) + Д2(у) - МуШу) - МуШуУ (9) Отметим важную особенность экспоненциального распределения — если ?| = eAl, ?2 = еЛг и они независимы, то min(fi, ^2) = eAl+A2. Действительно, (9) дает /,(у) = А,е-А" + \2е-*** - А2е-А2"[1 - е~х"] - [\ - в-^]А,е-А" = = ih + A2)e-(Al+A2)j'. Более того, как будет показано ниже, при достаточно широких предположениях от- относительно распределения независимых случайных величин ?ь ?2» • • • } in, величина г} = min(f |,... , ?„) имеет распределение, близкое к экспоненциальному. 2.1. Сложение случайных величин. Свертка распределений Пусть 7] — fi +f2 и i^(x) —функция распределения вектора ?. Для удобства изложения будем предполагать, что ? обладает обобщенной плотностью gg(x). Тогда получаем Чу) = piV <У} = Р{?\ +6 < У> = JJ 9te2(x\> Х2) dXi dx2 = xl+x2<y = JJ (здесь /f(x) — абсолютно непрерывная составляющая распределения ?, р, = Р{? = а,} дискретна, ^ (х) ~ абсолютно непрерывная составляющая, сосредото- сосредоточенная на гладкой линии 7j в 1R2 ). В частности, если вектор ? непрерывен, то сумма ц также непрерывна; соотноше- соотношение A0) записывается в виде оо = JJ f(]B(xux2)dxldx2 = J dxx J fiii2(xu x2) dx2, Х\+Х2<У -00 -00
62. Функции двух переменных. Действия над случайными величинами 93 и плотность распределения 7) дается соотношением 00 = J fiitifa* У-*i)dxi- (И) —00 Если ? дискретна с рядом распределения j>,- = Р{? — aj, то сумма также дискрет- дискретна и +6 = *>;}= — ее ряд распределения. Рассмотрим теперь процедуру сложения независимых случайных величин. В этом случае соотношения A0) и A2) приобретают более компактный и завершенный вид. Пусть gd(x\) — плотность распределения случайной величины ?1? и плотность распределения случайной величины ?2 В случае независимости f i и ?2 получаем и соотношение A0) можно записать в виде 00 j ] -oo -oo -7 -oo 00 •/ -oo Обобщенная плотность суммы независимых случайных величин дается в этом случае соотношением 00 f * i ч* / ч V^ / 2ч = / Н\ \х\)Пг\У ~ х0 dx\ + Z_j 4j ' h\ \У ~ aj) -00 3 Отметим следующие, важные для приложений, частные случаи соотношений A5) и A6): 1. ?| и ?2 непрерывны и независимы, тогда сумма непрерывна и 00 = f -oo
94 , ^o Глава XL. Функции случайных величин 2- ?i и & дискретны и независимы, тогда сумма дискретна и *i Г- 3. ? 1 непрерывна, ?2 любая 00 = f -00 4. ?i дискретна, ?2 любая 00 5. ?1 непрерывна, & дискретна, в этом случае сумма непрерывна и 00 Л.+6(У) = Е Pte = а)} • Д, (у - а}). B1) Закон распределения суммы независимых случайных величин называется сверткой законов распределения слагаемых. Например, соотношение A7) дает формулу свертки плотностей, A8) — свертки рядов распределения, B0) — свертки плотности с рядом распределения. Обычно свертка обозначается знаком «*». Это обозначение дает возможность символически представить функцию распределения суммы независимых слагаемых в виде плотность распределения в виде И Т. Д. Как правило, при сложении независимых случайных величин характер распре- распределения меняется, даже если складываются одинаково распределенные случайные величины. Пример 1. ?\,?ъ — независимые, равномерные на [0, 1] случайные величины. В соответствии с A5) 00 -00 z I dt = x, 0 ^ x < 1, J 1 — T 1 <^ T 0, K0Ui>2, 1 dt = 2 - x, 1 ^ x ^ 2, *¦ 1-1 Таким образом, свертка двух равномерных на [О, 1] случайных величин есть «треугольная» случайная величина (рис. 6).
§2. Функции двух переменных. Действия над случайными величинами 95 Рис.6 Пример 2. ?| = ехр [Х\]; ?2 = ехр (А2]. Тогда 00 -00 / Хе~м dt, О о, х<0 A2 je-Xxdt о х ^ ° Га2- tp~Ai г > о ~ 1 0, а; < 0 ' О, Свертка двух экспоненциальных не является экспоненциальной случайной величиной (рис. 7). к /*<*> Рис.7 Она является представителем семейства гамма-законов распределения {см. ниже). Устойчивые относительно свертки распределения играют важную роль в теории и приложениях. Не касаясь вопроса о том, каким условиям должны удовлетворять и как описываются распределения, инвариантные относительно свертки, отметим ин- инвариантность следующих часто встречающихся в приложениях распределений: нор- нормального, пуассонова, гамма-распределения, распределения Коши и распределения Бернулли. Сформулируем и докажем соответствующие утверждения для нормального рас- распределения, распределения Пуассона и для гамма-распределения. Теорема 1. - N[mu <т\]и?2 = Щтп2, (r2], N[mu ai] *N[m2, а2] = N^rrii +m2, = Jv|mi+m2, 2,2] 1 2 J-
96. . Глава XL. Функции случайных величин По формуле A5) имеем *¦•*-/77В (t-miJ 2а2 -x-t-m2J Г (-x-t \ 2 2 2а2 dt = —00 X — t — 7712 = Т <72 i = X — 7712 ~ dt — a2dr М = ГП\ + 7712 00 = ~ / expi - 27ГСГ, а2 J I (х - М - (т2тJ т2\ 7Г ( • а2 dT — —00 2G? 00 А(т - т0J - В -00 Элементарный (но несколько утомительный) подсчет дает (х-тх- т2J ; а = Поэтому оо -в —00 (т - tq)VA = и du 1- ^1 ( (x-mx- ===== ехр< — 00 л/2тг f(x-mx -m2J\ ехр^ ——г—, ^т— У > 1 Т" W2 Отметим, что нормальное распределение в некотором смысле «устойчиво» отно- относительно свертки, а именно, если сумма двух независимых случайных величин имеет нормальное распределение, то оказывается слагаемые обязательно нормальны! Теорема 2. Если f i = n[Ai] и ?2 = П[А2], то 6 + & = П[А! + А2]: = *> = 1 V '^ —Ai 1 = к-г} = 2^е — г=0 г=0 (к - г)! г=0 к!
§ 2. Функции двух переменных. Действия над случайными величинами 97 Гамма-плотности Будем говорить, что случайная величина ? имеет гамма-распределение с параметра- параметрами (А, и), если ее плотность распределения задается соотношением (А > 0; и > 0) <22> Обозначение: ? = j[X, и]. Здесь Т(и) -гамма-функция Эйлера 00 >¦/' dx. Отметим следующие, хорошо известные свойства гамма-функции: 1. Т(п + 1) = n!, n — натуральное. 2. иоТ(и)=Г(и+\). В справедливости этих свойств легко убедиться, интегрируя B2) по частям. Определение плотности B2) корректно, так как для любых А > 0 и v > 0 f^(x) и выполнено условие нормировки О 00 00 ей dx — — Л оо оо Имеет место теорема. Теорема 3. Если & = j[X, vx\, ?2 7[A, vi\, mo ?, + = 7[A, j[X, vx + v2\: u2]. — 00 -J w о В последнем интеграле положим t = хт. Тогда X 1 (х - dt = dr = /
98 Глава XL Функции случайных величин откуда j *¦ * '*=rwkjА"" ¦ *"""' ¦ е~Хг ¦ I т"'~'A -тГ"dT- О Поскольку Д, * Д2 — плотность, то для нее должно быть выполнено условие норми- нормировки, поэтому 00 00 1 7 00 = А(ии иг) • J XV]+V2 ¦ xu^-le~Xx dx = А(ии v2) ¦ Г(«/, + v2) = 1, о где 1 Отсюда окончательно заключаем, что 7[А, щ) * 7[Л, и2] = Д, * Д2 = i 2.2. Другие действия над случайными величинами Задача нахождения закона распределения результата других арифметических действий над случайными величинами решается аналогично. Отметим здесь основные соотно- соотношения для случая независимых операндов, следующие из (*)-(**). Вычитание V — ?>(?ь ?2) = ?1 ~ ?2» 9Z\h(xi) xi) — 9i\(x\)9i2(xi) (см. соотношения A3)—A4)). ff ~ 6 < у] — и 9l\h(xU X2) &x\ dx2 — Х]-Х2<У оо хх-у - JJ 9^(х\)9ь(х2) dx}dx2 = I dx, / fb{xx)fb{x2) dx2 + x\-xj<y —00 —00 ? oo «I / /<i(*l)**l+]Cft / /fe(*2)AB2+ X) Л?|- B3) -co a\-a)<y Обобщенная плотность разности д^у) при этом имеет вид 00 9ч(у) = / Л. («i)/fe(*i ~ У) dxi + Yl *ih\ (а) + У) + -00
§2. Функции двух переменных. Действия над случайными величинами 99 Частные случаи B4), соответственно, для непрерывных 00 1. = / Ai (Ж1 )hi(x\ - у) -00 и дискретных случайных величин 2. Аналоги соотношений A9), B0) и B1) очевидны. Умножение dxl dx2 = jy 0 oo Г Г J J ' —оо у/х\ 0 00 2(хг) dx2 + / dx\ 0 h -00 00 '2 = f 9b{*№i{?) dx,. B5) -oo 0 Выражение для обобщенной плотности произведения О оо Г ( у\ Г ( у\ 9т)(у) — ~ I 9b(x^)9h ( — J dx\ + д^(х\)д^21 — J dx\. B6) -oo 0 Аналоги соотношений A7)—B1) очевидны. Деление Будем дополнительно предполагать, что Р{^2 = 0} = 0. = Р{г} < у} = JJ д^{хх)дь{х2) dxx dx2. B7) Для у < 0 получаем (рис. 8) О Я|/у оо О F4(y) = I dxig^xi) <te, / ^2(ar2) d«2 + / 9b(xi) dx\ I 9^{Х2) dx2, y<0. -oo 0 0 x\/y Аналогично для у > 0 имеем 0 0 оо х\/у = l~ J 9b(xi) dxi / 9b(xi) dx2 ~ / ^j(«i) dx\ ~ j 9b(x2) dx2, У>0. -oo x\/y О О
100 . Глава XL. Функции случайных величин хххг<у X, Область интегрирования хгх2<у для у<0 х-, Область интегрирования ххх2<у для у>0 Область интегрирования Область интегрирования х1/х2<у для у<0 хх/хг<у для у>0 Рис.8 Для дальнейшего нам понадобится выражение функции и плотности распределения частного в предположении, что знаменатель неотрицателен: дB(х2) — 0, Хг < 0. Учитывая вид области интефирования (рис. 8, х2 > 0), удобно в B7) расставить пределы интефирования так, чтобы внешне интефирование велось по х2, а внутренне ПО Ж] 00 00 = I dx2 I gix{xx)gi2{x2) dxx = I F^{yx2)gb{x2) dx2. О -оо О Обобщенная плотность при этом дается равенством 00 = J dx2. B8) §3. Функции нескольких переменных В этом разделе мы остановимся на некоторых специфических функциях п переменных и их законах распределения, часто встречающихся в приложениях и ифающих важную роль в статистике.
§3. Функции нескольких переменных 101 3.1. Экстремумы и порядковые статистики Распределение максимума п случайных величин Очевидное обобщение^рассуждений предыдущего пункта (см. A)) дает: если т) = max {?,}, Ff(x) = P{? < х} — функция распределения ?, то ЩУ) = р\тахШ <у} = PiZi <У\ 6 < y; •••;&< y} = Fte2-.u(y> У> •••>»)• Если вектор |" непрерывен с плотностью /^(х), то плотность т) дается соотношением _ v- °Ъ , , _ / J~' 3~х -с» В случае независимости компонент вектора ? в совокупности а в предположении непрерывности ^ п B) Распределение минимума п случайных величин Обобщая соотношение (8) дословным повторением выкладок, получаем для вектора с независимыми в совокупности компонентами F4(y) = P{min{^} < у} = 1 - P{minfe} ^ у} == 1 - Для непрерывных ? tj = min{?j} также непрерывна и Заметим, что здесь, как и для случая двухкомпонентного вектора ?, из условия экспоненциальное™ компонент следует экспоненциальность минимума. Если п достаточно велико, то оказывается, что этот результат — экспоненциаль- экспоненциальность минимума — слабо зависит от характера распределения компонент. Точнее, имеет место следующее утверждение. Теорема. Пусть случайные величины ?,-, j = 1, 2, ... , п, — независимы в совокупности, непрерывны на [0, +оо) и одинаково распределены. Тогда при п —* оо распределение минимума ?j близко к экспоненциальному: JP /,л _ / °> У < °> tminW - \ I- е-»пУ, у^О. Здесь цп =
102 Глава XL. Функции случайных величин Соотношение C) в условиях теорешл дает { В силу непрерывности ?, в окрестности нуля (точнее, в правой полуокрестности) выполняется равенство = /@) • У = Р * У Из соотношения (*) ясно, что при п —> оо Fmin(y) —> 1, у ф 0, и Fmin(y) —> 0, j/ = 0, т.е. вся информация о поведении минимума сосредоточена в окрестности нуля. Положим t = пцу. Тогда Указанное обстоятельство является теоретическим осмыслением т. н. «принципа слабого звена», широко используемого в теории надежности — надежность агрегата, функционирование которого необходимо зависит от надежности большого количества составляющих, определяется надежностью самого ненадежного из них и описывается экспоненциальным распределением. Распределение порядковых статистик Пусть ? = {?i,... , ?„} — случайный вектор с законом распределения F^(x). Вектор fj = {rju т]2,... ,т]п} назовем вектором порядковых статистик, а его компоненты — порядковыми статистиками, если 771 = min {?,}; 772 = niin{^-; ?,- ф щ};...; rjn — ^}. Компоненты вектора fj расположены в порядке неубывания Vi ^ V2 ^ "Пг ^ ••• ^ Vn- Найдем закон распределения тп-й компоненты fj в предположении независимости и одинаковой распределенности компонент ?, 1 < т < п. Логику рассуждений рассмотрим на примере п = 3, т = 2. Для того, чтобы вторая порядковая статистика приняла значение, меньшее у, нужно чтобы не менее двух из трех компонент вектора {?i, &> ?з} приняли значения, меньшие у. Это значит, что < у} = P{?i < у; & < у; 6 > у} + у\ у, у; < у; Ь < у; Ь < у} = ? ck3Fk(y)[\-F(y) |3-Jfc Аналогично для произвольных тип к=т у; • • •; 6» ^ у} = E)
§ 3. Функции нескольких переменных 103 3.2. Кратные свертки. Некоторые специальные распределения Столь же очевидно обобщается на случай произвольного конечного числа слагаемых понятие свертки случайных величин Fi{ * Fi2 * ... * Fi% = Fix * {Fi2 * Ffc * ... * Fin) = Fil+i2+..Mn. Общие формулы при этом уже достаточно громоздки и необозримы, если только свора- сворачиваемые распределения не являются устойчивыми относительно свертки — в послед- последнем случае ситуация в техническом плане не сложнее, чем в случае двух переменных. Особо отметим, что для нормальных, независимых в совокупности случайных величин из свойств линейного преобразования и теоремы 1 следует, что, если п 7} = X) «,-&, ?, = iV[m,-; 07], то 7j = N[%2 <Х{ГП{, X) |а,|(т,], т.е. линейная комби- нация независимых нормальных случайных величин является нормальной случайной величиной. Распределение \2 — Пирсона Пусть х2 — ?} + il + • • • + ?п > гДе ij — Щ®> 1] независимы в совокупности. Распределение суммы квадратов п независимых нормальных с параметрами @, 1) случайных величин называется %2 -распределением Пирсона с п степенями свободы. Читается — хи-квадрат. Обозначение: rj = %2[n]. Устойчивость %2-распределения относительно свертки усматривается непосредственно из определения X2[fe]*x2[m] = x2[fe + m]. F) Для нахождения закона распределения случайной величины %2, заметим, что если 2 Действительно, ГО, у<0, у} = 2 V? I р I Лт w s ft откуда В силу устойчивости гамма-распределения относительно свертки получаем 1 п| у ! G) < -распределение Стьюдента Пусть »7, &, &>•••> ?п — независимые нормальные с параметрами @, 1) случайные величины и пусть (8) Распределение случайной величины t называется распределением Стьюдента с п степенями свободы. Обозначение: t = t[n].
104 Глава XL. Функции случайных величин Найдем выражение для закона распределения t[n]. Отметим, что числитель рас- рассматриваемого отношения нормален с параметрами @, -/п), а знаменатель неотрица- неотрицателен и его распределение дается выражением }=Ф<У2}= ?«?<»}=-р{?«? < у2}=пхЧп) < у2}. Из G) заключаем, что Пх2 < у2} = -т^г— / *Ы2)-'*-" отсюда для плотности \/Yl ?\ имеем Поэтому для частного t[n], следуя B8), получаем 00 00 1 1 г ехрD f I + V-)\ dx. Делая в последнем интеграле замену приходим к формуле , Г| 2 Заметим, что при п — 1 /<[ijB/) = К[\] — плотность распределения Коши. 2 -распределение Фишера Пусть &, &>•••> ?п> Vu7l2^ '•• iVm — независимые в совокупности нормальные с па- параметрами @, 1) случайные величины. Положим п 1 Величина ^ называется случайной величиной Фишера-Снедекора. Обозначение Z — Z[n, m].
§ 3. Функции нескольких переменных 105 Закон распределения случайной величины Z найдем, используя B8) и G). Имеем 00 fz(n/m)(y) - I /X2[n](ty)/X2[m](f)* dt = О ~ ,-ty/2 t(m/2)-\e-t/2 г (tyyn/2 J T,fn Г - 2^2 00 t, -(l + y) = « 1+2/ 2du ' 1+2/ 00 2(т+п)/2ГB)г( — y)((m+n)/2) -1 Г" • 2- f n\ (m rUr T ,(«/2)-I (И) Из соотношения D) для линейного преобразования Z = -^ ¦ (~Z) окончательно получаем 3.3. Многомерное нормальное распределение Пусть ?i, &> • • • > 6i — независимые в совокупности нормальные с параметрами (О, 1) случайные величины, А = (ау) — невырожденная матрица порядка п, т = (т,)"=1 — столбец. Рассмотрим случайный вектор fj = (гц)"=\, задаваемый соотношением 7у = А?+т. A3) Отметим, что каждая компонента rjj является линейной комбинацией нормальных с параметрами (О, 1) случайных величин 2 + •.. + a.jn?n + m,- и, в силу сделанного выше замечания, является нормальной случайной величиной. Найдем закон распределения вектора A3). Пусть В С Е" — борелевское, тогда P{fj eB} = m G B} = x€Rn: Ax+meB Bтг)"/2 I expj--xTx!> dx. ": Ax+mGB
106 Глава XL. Функции случайных величин Сделаем в последнем интеграле замену переменных, положив у = Ах + т. В силу невырожденности А эта замена невырождена и ее якобиан равен \A\~l: dx = \А\~] • dy. Получим хт ¦ х = (у - т)т(А-1)Т(А-')(у - hi) = (у - m)T(AAT)-'(y - m), поэтому для любого борелевского ВСЕ" имеем I Н( )Т(*АТ)"( )} В} = р^р I еХРН(у »)(*А)(У -)} Щ В Положим ААТ = ВД, тогда det(AAT) = det К = |А|2 и |А| = Для закона распределения вектора г} получим р{ч~е в} - whm I ехрН(у - т)Тк"(у - В отсюда следует, что fj — непрерывный вектор, плотность которого дается равенством т. е. полностью определяется матрицей К и вектором т. Распределение A4) -A5) называется невырожденным нормальным п-мернымраспре- п-мернымраспределением с параметрами (К, т). Обозначение fj — N[m, К]. Отметим, что здесь К — симметричная, положительно определенная матрица, (det А ф 0, К = ААТ), m — произвольный вектор из R". Компоненты нормального случайного вектора — нормальные случайные вели- величины. Однако нормальности компонент недостаточно для того, чтобы вектор был нормальным в смысле определения, данного выше. Пример. Пусть ?i = N[0, 1], а & = ±?i с равными вероятностями Компонента ?2 нормальна с параметрами @, 1), что немедленно следует из выкладок В то же время, совместное распределение F6) сосредоточено на паре прямых х\ = ±х2, так что обобщенная плотность распределения этого вектора может быть представлена в виде <М) Ц )I{) A6) и не является плотностью совместного нормального распределения A5). > Отметим еще одно важное свойство компонент нормального вектора: они незави- независимы тогда и только тогда, когда матрица К — диагонально. < Действительно, если ?ь &, ••• > in независимы и нормальны (т,-, <г,), то для совместной плотности получаем ^ ?{Ц^} A7)
§ 4. Независимость функций независимых аргументов 107 Легко убедиться в том, что плотность A7).имеет вид A5) с m = [m,] и К = Обратно, пусть К = diag [А7]"=1, А7 > 0. Тогда det К = А^.-.А,,, К = diag им и плотность A5) принимает вид B,)VVA,A2...An eXPH P П1 Г (ж,-т,J1 т. е. представима в виде произведения нормальных плотностей, каждая из которых является индивидуальной плотностью распределения г-й компоненты, что и означает независимость компонент ?,. > Пусть теперь & = JV[O, 1] — независимые, А_ — m x n-матрица, ранг которой rang А = г. Можно показать, что вектор fj = А? + m имеет г-мерное нормальное распределение, которое в случае г — та является невырожденным в Шт с параметра- параметрами (К = ААТ, т), в случае же г < т это распределение вырождено в!гои сосредо- сосредоточено на некотором подпространстве L, dim L = r. § 4. Независимость функций независимых аргументов В заключение этой главы рассмотрим одно важное свойство функций случайных ар- аргументов. _ Пусть ? = {?,}"=1, fj = {rjj}™=] — случайные векторы, законы распределения кото- которых даются, соответственно, функциями Ф^(А) и Щ{В), А — борелевское из Ж1, В — борелевское из Шт. Пусть у? и Ф — борелевские функции в!"и1т соответственно. Тогда имеет место Теорема. Если векторы ? и fj независимы, то случайные величины <р(?) и Ф(^) — незави- независимы. ¦4 Из независимости векторов ? и fj получаем Ф-^(А, В) = Ф;(А) • Фц(В), ViCln,5CKm. A8) Рассмотрим РШ) € К Ь]: Щф G [с, d]} = P{te<p-\[a, Ь)); fj G ^"'([c, d))}. В силу соотношения A8) последняя вероятность представима в виде P{?etp-\[atb)); fj e *~\[с, d))} = = P{t e V-\[a, b))} ¦ P{fj G «-'"([с, d))} = P{<p(?) G [a, b)} ¦ P{V(fj) e [c, d)}, откуда и следует искомое. >
Глава XLI ЧИСЛОВЫЕ ХАРАКТЕРИСТИКИ СЛУЧАЙНЫХ ВЕЛИЧИН Если ? — случайная величина (может быть, и векторная), наблюдаемая в экс- эксперименте Q, то, как мы видели выше, исчерпывающую информацию о ней дает ее закон распределения Ф^{А}. Однако довольно часто можно, описывая случайную величину, ограничиться менее подробной, чем закон распределения, информацией, указав в каком-то смысле ее характерные значения и оценив, насколько наблюдае- наблюдаемая случайная величина может от этих значений уклоняться. Например, если ? — результат измерения напряжения в бытовой электросети, то сказав, что это напря- напряжение равно 220 В с возможными отклонениями плюс-минус 40 В, мы удовлетворим подавляющее большинство запросов пользователей этой сети. Для некоторых случайных величин подобное описание может оказаться и не- неинформативным. Как правило, это происходит тогда, когда возможное рассеяние значений случайной величины оказывается значительным и соизмеримым со всем диапазоном принимаемых ею значений. Мы рассмотрим здесь некоторые числовые показатели, называемые числовыми характеристиками случайной величины, которые отражают характерные для данной случайной величины аспекты ее поведения и позволяют описывать случайную величи- величину в компактной форме. Важнейшими среди них являются характеристики положения, характеристики рассеяния и характеристики связи. § 1. Характеристики положения Неслучайные числа, дающие представление о наиболее характерных значениях, принимаемых случайной величиной, будем называть характеристиками положения. К ним относятся математическое ожидание (центр распределения), мода (наиболее вероятное значение) и медиана (срединное значение). С точки зрения теории и ее приложений, важнейшей среди перечисленных характеристик является математичес- математическое ожидание, на изучении свойств которого мы и остановимся ниже. 1.1. Математическое ожидание случайной величины Пусть д((х) — обобщенная плотность распределения случайной величины ?. Мате- Математическим ожиданием, или средним, случайной величины ? назовем число, обозна- обозначаемое в дальнейшем М[?], определяемое соотношением: 00 = J xg((x) dx. A) -00
§ 1. Характеристики положения. 109 Если интефал A) расходится, будем говорить, что у случайной величины ? математи- математическое ожидание отсутствует. Для непрерывных случайных величин с плотностью Д(ж) математическое ожида- ожидание дается равенством 00 = J B) —00 для дискретных, с рядом распределения Р{? = а,} = pi, i = 1,2, ... ,п, ... равен- равенством 00 aiPi. C) 1=1 Если интерпретировать распределение вероятностей д((х) как распределение еди- единичной вероятностной массы по всей числовой прямой, то соотношения A), B) и C) суть формулы для вычисления центра тяжести этой единичной массы. Именно это и имеют в виду, когда говорят, что математическое ожидание — это центр распределе- распределения. Пример. Математическое ожидание экспоненциальной случайной величины. Пусть ? = ехр[/х]. Тогда х<0, О О, и для М\(\ получаем по по 1 АМ-{ Д 00 00 М{(\ = / fd*) xdx= f ц- хе^ dx = -. Пример. Математическое ожидание нормальной случайной величины. Пусть ? = Щт, а], т. е. (х-тJ ) Для М [?] имеем х — т =и r аи + т I « I <г [ I « I , тс rl = / -== ехр< > • a du — . / «ехр< >fl«H—== / ехр< >а« = -00 V ' -00 V ' -00 V ' Пример. Математическое ожидание бернуллиевой случайной величины. Бернуллиевая случайная величина задается рядом распределения m. 0 1 Р ' Для нее соотношение C) дает Пример. Математическое ожидание случайной величины распределенной по Коши. Плотность распределения Коши задается соотношением t^-W^Y хел-
110 Глава XLI. Числовые характеристики случайных величин Из B) получаем, что —оо Легко установить, что последний интеграл расходится. У случайной величины, распределенной по Коши, математическое ожидание не существует. 1.2. Теорема о математическом ожидании функции от случайных величин. Свойства математического ожидания. Важнейшие свойства математического ожидания являются следствиями следующей фундаментальной теоремы, которую мы примем без доказательства. Теорема. Пусть f — случайный вектор с законом распределения д% (х)=д^ &.. .^п(х i х2. •. xn) и функция (p(t) = <p(tut2, ... ,tn) такова, что интеграл Rn сходится. Тогда М[<р{^)] — I <p(x)gg(х) dx. D) Rn Отметим следующие, важные для дальнейшего частные случаи формулы D): ? — непрерывная скалярная случайная величина с плотностью 00 МЫ0) = J ФШ*) dx'> -00 ? —дискретная скалярная случайная величина с рядом распределения Р{? = aj = pi, i= 1,2, ...; 00 F) 00 дискретно непрерывная: д^(х) = /(х) + ?) ^(х - •¦=' G) — непрерывная с плотностью /^2 (xi, х2) м[^(^)] = // Фь *2)A,fo(«i, хг) <tei dx2; (8) R2 = F1 Сг} — дискретно непрерывная с обобщенной плотностью д${х\, х2) = 11 Фи X2)9hb(xi> X2> dx{ dx2. (9)
§ 1. Характеристики положения Из соотношения D) и его вариантов E)-(9) легко получаем следующие утвержде- утверждения. 1. Математическое ожидание постоянной — постоянная М[с] = с. 2. Если существуют M[?i], Mf&L а а и /3 — произвольные числа, то существует 3. Если существуют М[?2] и М[?|], а случайные величины ?i и & — независимы, то существует Mfo&l и 4. Если существует М[?], а ? неотрицательна, то М[?\ > 0. 5. Если существуют M[?i], М[^] и ?i ^ ^2» то 6. Если существуют М [^f], М[З], то существует Mfo&J и (неравенство Коши—Буняковского). < Для доказательства последнего соотношения заметим, что в силу свойства 4 для любого age M|Af, + б]2 ^ 0. Откуда для всех AGE А2М[??] + 2АМ&6] + М[Й] ^ 0, а это возможно лишь, если дискриминант квадратного трехчлена неположителен откуда следует искомое. > Пример 1. Найдем математическое ожидание биномиальной случайной величины. Напомним, что ? = В[п; р] — количество успехов в серии из п независимых испытаний с неизменной вероятностью успеха р в каждом. Поэтому ? представима в виде Z = ?i + 6 + • • • + 6», где ?j — независимые случайные величины с рядом распределения Р{?, = 0} = q = I - р, P{?j = 1} = р. Из свойства 2 для математического ожидания следует МЫ] = ? Mtj = пр. Заметим, что мы одновременно доказали комбинаторное тождество Пример 2. Для нахождения математического ожидания случайной величины, имеющей распределе- распределение у2 с п степенями свободы, воспользуемся тем же свойством 2. Так как по определению где ?) — независимые @,1 Нормальные случайные величины, то Из того, что М [?j] = 1, получаем окончательно М[х2]=п.
112 Глава XLI. Числовые характеристики случайных величин 1.3. Другие характеристики положения Коротко остановимся еще на двух числовых характеристиках положения, описываю- описывающих «характерные» значения случайной величины. Медианой случайной величины называется число, обозначаемое в дальнейшем Ме[(\ и обладающее тем свойством, что Ft(Me\i\) = 0,5. A0) Медиана может быть однозначно определена не для любой случайной величи- величины. (Медиана распределения Коши равна нулю, в то время как ее математическое ожидание не существует; медиана нормального распределения и его математическое ожидание совпадают, аналогично для равномерного на [а, Ь] и симметричного рас- распределения.) Медиана может и не быть одним из возможных значений случайной величины. Модой случайной величины называется число, обозначаемое в дальнейшем Мо[?] и обладающее тем свойством, что это наиболее вероятное значение среди всех воз- возможных значений случайной величины. Для непрерывных случайных величин М>[?] — точка максимального значения плотности Д(ж), A/o[?] = argrnax/e(z), A1) для дискретных — значение с наибольшей вероятностью, Ma[t] = ait Р{а{}>Р{а5) Vj. Если таковых (наиболее вероятных значений) у распределения несколько, то оно на- называется полимодальным, если оно единственно, то унимодальным. Если наибольшее значение плотности достигается в концах промежутка множества значений случай- случайной величины, а внутри этого промежутка имеется единственный минимум, то такое распределение называется антимодальным. Отметим, что для симметричных унимодальных распределений мода, медиана и математическое ожидание (если последнее существует) совпадают. В общем слу- случае между перечисленными характеристиками определенных соотношений нет. Пример 3. Пусть ? = #[п;р] — биномиальная случайная величина с параметрами {п,р). Если го = Мо[?], то по определению должны выполняться соотношения Р{? = т-1}^Р{? = т} и Р{? = го + 1} <С Р{? = го}. Поэтому y-»TO—1 ТО—1 П—ТО+1 сп v я откуда Вспоминая, что М[?] = пр, ~ /чТО ТО П—ТО ^СпР Я , получаем: : го < Спр-\ рто+1дп-то-1 ^ ( -р- г*т т п—т или р(п + I) - I <С Мо[?] <: р(п + 1). A2) Из A2) следует, что мода у биномиальной случайной величины всегда есть и, при выполнении усло- условия р(п +1) — нецелое, она единственна; если же р(п +1) — целое, то модой будут два соседних (равновероятных!) значения случайной величины f — а =р(п + I) — I и Ь —р(п + I). Пример 4. Аналогичные рассуждения для пуассоновой с параметром Л случайной величины ? = П|А] приведет к неравенству А-1^тп^А. A3) Выводы из соотношения A3) аналогичны приведенным в вышеизложенном примере.
§2. Характеристики рассеяния 113 § 2. Характеристики рассеяния Характеристики положения дают усредненное представление о характерных значени- значениях, принимаемых случайными величинами. Информации в этих характеристиках тем больше, чем меньшие отклонения от них могут наблюдаться в реальном эксперименте. Показатели, описывающие возможные отклонения значений случайной величины от «средних», называются характеристиками рассеяния. К ним относятся дисперсия, среднеквадратичное отклонение, срединное отклонение, коэффициент вариации и некоторые другие. 2.1. Дисперсия и ее свойства Важнейшей из них является дисперсия. Дисперсией случайной величины ? (обозначение D[?]) называется математическое ожидание квадрата отклонения случайной величины ? от своего среднего D[t]=M[Z~M?]2. A) Отметим некоторые свойства дисперсии. < Из того, что (? - М[?]J = ?2 - 2?М[?] + М2[?], используя свойства математи- математического ожидания, получаем М[?2- 2?МЦ) + М2[?]] = М[?2] + 2М[(\М[?] + М2\(\ = 2 2 2. DU] > 0. 3. D[c] = 0. 5. ?>[?, ± 6] = Л Ki ] + Dfa] ± 2M [(?, - Af^i )F - Мб)], в частности _>[{ + с] = + 61 = м[& + б - м[е, + б]J] = м [«, - м?,) + F - = М[6 - М?,]2 + М[6 - Мб]2 ± 2М [(?, - М?,)F - Мб)]- > Отметим, что если случайные величины б и б — независимы, то из свойства 3 мате матического ожидания следует, что M[(h - М?,)(б - Мб)] = М[б - М?,]М[б - Мб] - 0 и указанное свойство выглядит так: 6. Если <7{(х) — обобщенная плотность распределения случайной величины ?, то _>[?] может быть вычислена из соотношения 00 = J(x-M[t]Jg((x)dx, B) — 00 в частности, если ? — непрерывная случайная величина с плотностью Д(х), то 00 00 = J x2fz(x) dx - М2[Ц C) -00 -00
114 Глава XU. Числовые характеристики случайных величин если же ? — дискретная случайная величина с рядом распределения Р{? = а,} = pi, то 00 (а, - М[?]J ^ = ? а?Л - М2[?]. D) Пример 1 (дисперсия бернуллиевой случайной величины). Пусть ? — бернуллиева случайная величина, Р{? = 1} = р; р{? — 0} = q — 1 - р. В соответствие с соотношением D), получаем {М[(\ = р) ?>[?] = 12-р + 02-д-р2=рA-р)=рд. Пример 2 (дисперсия биномиальной случайной величины). Если ? — биномиальная с параметрами (п, р), то, как было отмечено выше, ? представима в виде где ?j — независимые одинаково распределенные бернуллиевы с параметром р случайные величины. Поэтому (свойство дисперсии 5) Одноврэменно доказано комбинаторное тождество п=0 Пример 3 (дисперсия равномерной на [а, Ь] случайной величины). Пусто ? = В\а, Ъ], Mt, = ——. Имеем b - a 12 Пример 4 (дисперсия нормальной с параметрами (т, а) случайной величины). Пусть ? = N[m, <г], М[(\ = т. Тогда 00 1 1 1 2 00 [ „к 1 1 pvn /¦ / f «2Ь„ тJ\ «г2 00 Г ¦ х - а dx ¦ 9i pvn т = а 1 du и2 Характеристикой рассеяния, тесно связанной с дисперсией, является среднее ква- дратическое отклонение случайной величины: °\1\ = у/Щ- E) Обладая тем же качественным наполнением (содержа в себе ту же информацию), что и дисперсия, среднее квадратическое отклонение имеет то преимущество, что измеряется в тех же единицах, что и рассматриваемая случайная величина. Отметим, что из свойств дисперсии с очевидностью следует: 2. ог[с] = 0. 3, 4. а[?] ± ^2] = -y/^^i] + °г2[?2]. если только ^ и & — независимы. В заключение заметим, что если у случайной величины ? существуют М[?] и о то можно построить случайную величину ?, обладающую теми же свойствами, что и ?, но имеющую стандартные числовые характеристики: М = 0 и D = 1. Достаточно положить
§2. Характеристики рассеяния 115 Переход от ? к ? - га носит название центрирование случайной величины ?, а переход от ? к ?/(г — нормирование. Таким образом, соотношение F) описывает процедуру нормирования и центрирования случайной величины ?. Очевидно, что центрирование (? —> ? - т) не меняет дисперсии, в то время как нормирование, носящее характер масштабного преобразования, изменяет математическое ожидание в а раз. 2.2. Неравенство Чебышёва Из определения дисперсии A) ясно, что она призвана качественно описывать рассе- рассеяние значений случайной величины относительно математического ожидания. Точ- Точный вероятностный смысл этого описания дается неравенством Чебышёва, которое мы здесь рассмотрим. Теорема. Пусть случайная величина ? обладает математическим ожиданием М[?] = ти дис- дисперсией D[?] = а2. Тогда каково бы ни было е > О m\>e}^^. G) < Рассмотрим вспомогательную случайную величину rj, заданную соотношением = Г О, |?-т|<е, Заметим, что ц ^ |? - га|2, и потому М[т}] ^ М(? - т) = а . По теореме о математическом ожидании функции от случайной величины получаем M[rj] = е2Р{\? -т\^ eh откуда в2РШ -тп\>е}<а2 или <- чем и завершается доказательство. > Отметим, что неравенство G) часто используется в эквивалентной форме m\<e}>\--^, (8) получающейся из G) применением очевидного соотношения Неравенство Чебышёва показывает, что чем меньше дисперсия, тем реже значения случайной величины ? «сильно» (больше чем на е) отклоняются от среднего т. При фиксированной дисперсии вероятности отклонений на величину, большую, чем е, тем меньше, чем больше е. Неравенство G) универсально. Оно не предъявляет никаких требований к ха- характеру распределения случайной величины ? — достаточно существования га и а.
116 Глава XLI. Числовые характеристики случайных величин В силу своей универсальности оно малоинформативно количественно — для разумных значений е оценки вероятностей Р{|? - т\ > е} и Р{|? - т\ <е} крайне фубы. Пример. Для нормальной случайной величины с параметрами @, 1) имеем Pi\t\ < О = -i= / expl~\dx и 0,6827, в то время как неравенство Чебышёва дает что верно, но тривиально. Для этой же случайной величины при е = 3 точное значение вероятности Р{|?| < 3} = 0,9973, а соотношение (8) приводит к оценке 3}^ 1-^ = |= 0,8889, которая уже значительно лучше предыдущей. Несмотря на достаточно грубый характер оценок G)-(8), без дополнительных предположений о характере распределения случайной величины ?, неравенство Че- Чебышёва, как показывает следующий пример, улучшить нельзя — оно точное1^. Пример. Пусть ? —дискретная случайная величина, принимающая значения -1, 0 и 1 с вероятностями соответственно 1/4, 1/2, 1/4. Легко видеть, что М[(\ = 0 и D[([ = 1/2. Положим е = 1 и найдем значение вероятности Р{\?\ ^ 1}. Имеем p{\i\ > и = p{t = -i} + Pit = i} = \ + \ = \. Неравенство G) в этой ситуации дает оценку которая совпадает с точным значением оцениваемой вероятности. 2.3. Другие характеристики рассеяния Из других характеристик рассеяния, часто используемых в приложениях, отметим коэффициент вариации и срединное отклонение (среднее арифметическое отклонение). Пусть у случайной величины ? существует М[?] = ти/Э[?] = а2. Коэффициентом вариации случайной величины ? называется величина а2 V[?] = — • 100 %. (9) ш Из (9) легко усмотреть, что V[(\ описывает рассеяние случайной величины ? в долях по отношению к среднему. Как абсолютный показатель рассеяния коэффициент вариации не очень удобен, однако для совместно центрированных случайных величин (т.е. имеющих одинаковые математические ожидания) он позволяет эффективно сравнивать диапазоны изменения. Пусть у случайной величины ? существует М[?] = т. Срединным отклонением случайной величины ? называется величина U, задаваемая соотношением U[t]=M\t-m\. A0) Срединное отклонение U[?] качественно имеет тот же смысл, что и среднеква- дратическое отклонение — чем больше срединное отклонение, тем больше рассеяние, чем меньше срединное отклонение — тем меньше рассеяние. '' В том смысле, что существует случайная величина ?, для которой в неравенствах G)-(8) при некотором е достигается знак равенства.
§3. Характеристики связи 117 Для конкретных классов распределений связь между этими показателями может быть установлена, однако в общем случае удобных для использования на практике соотношений между U и а нет. Пример 1. Пусть f = N[m, a] — нормально распределенная случайная величина. Тогда U = <tJ- < a. ¦4 В этом случае х - т 00 = J ]x- , ~ I 2 I \ 2 / V тг 0 v ' 0 Пример 2. Пусть ? — R[-a, а] — равномерно распределенная случайная величина. Тогда U = а/2. —a ол/3 тт Отметим, что и в этом случае <т = > U. > Замеченное свойство U < а не случайно — оно имеет место для любых случайных величин (конечно, обладающих дисперсией). Теорема. Если у случайной величины ? существует D? = а2, то U <а. ¦4 В неравенстве Коши—Буняковского (свойство 6 математического ожидания) положим ?i = |? - т|, & = 1- Тогда М2\Ш = M2[\i - т\] ё& 2 откуда U2 < а2. > § 3. Характеристики связи Рассмотрим теперь двумерную случайную величину ? с компонентами ? и tj: ? = {?, 7]}. Ясно, что для решения задачи компактного описания поведения этой пары случайных величин указания средних значений компонент и характеристик их рас- рассеяния недостаточно — здесь важную роль играют, во-первых, факт наличия или отсутствия связи между компонентами, а во-вторых, характер связи. Анализ свойств математического ожидания и дисперсии показывает, что описание взаимодействия компонент случайной величины ? в какой-то степени может быть получено за счет изучения величины М[(?—М?)(т}~Mrj)\. Действительно, вспомним, что дисперсия суммы двух случайных величин дается соотношением Щ + *] = D[?] + D[V] + 2М[{? - М?){п - Mrj)) и в случае независимости ?vir} - Mi){n - Mr,)] = 0.
118 Глава XLI. Числовые характеристики случайных величин Анало1 ичное положение и с математическим ожиданием произведения: в случае не- независимости ? и 7? имеем = M[t]M[vl в противном случае - Mr})]. И вновь равенство М[(? - М?){г} — Мт})] = О возникает как следствие независимости ? и rj. Эти соображения мотивируют более тщательное изучение указанной величины с целью установления степени ее «ответственности» за независимость компонент? и tj. 3.1. Ковариация и корреляция Ковариацией случайных величин (и?/ называется число 2. Свойства ковариации: 1.Ки,71]=К[г),?]. . Если д^(х, у) — обобщенный закон распределения случайной величины ? = , V] = ff(x ~ M[tMv ~ МШ9ф, У) dx dy. R2 3. Ьсли случайные величины ? и rj независимы, то К[?, rj] = 0. 4. Если <х2[?], <т2[г}] — дисперсии случайных величин ? и rj соответственно, то #2[^]^WM. A) < Последнее неравенство следует из неравенства Коши—Буняковского (свой- (свойство 6 математического ожидания). > Нормированной ковариацией, или коэффициентом корреляции, случайных величин ? и г] называется число Наряду с очевидной переформулировкой отмеченных выше свойств ковариации отметим еще следующие: 5- - 1 ^ рК, V] < 1 < Очевидно следует из соотношения A) и определения B). > 6- \р[?, v]\ — 1 тогда и только тогда, когда компоненты ? и 7} линейно зависимы, при этом ^ C) где |р| = 1. < Утверждение о линейной зависимости случайных величин ? и ц немедленно следует из того, что знак равенства в формуле A) достигается в том и только в том о о случае, когда с вероятностью 1 случайные величины ? = ? - М[?] и V = rj — M[rj] о о линейно связаны, т. е. существуют постоянные аи/? такие, что P{v = а? + /?} = 1.
§3. Характеристики связи 119 Взяв математическое ожидание от обеих частей последнего равенства, заключаем, что C = 0. Для нахождения постоянной а перепишем упомянутое равенство в виде V-al-0 и найдем дисперсию от обеих частей этого соотношения. Имеем D[V- с?] = <г2М + aVffl - 2оЛГК, v\ = 0. о о Учитывая, что a [rj] — осог [?] (это следует из равенства V = а?), заключаем, что Суммируя вышеизложенное, констатируем, что ковариация (коэффициент кор- корреляции) пары случайных величин является надежным индикатором наличия между компонентами ? и ц жесткой линейной связи в случае \р\ = 1. В то же время у нас нет оснований рассматривать ковариацию (коэффициент корреляции) как индикатор наличия или отсутствия какой-нибудь (не обязательно линейной) зависимости. Свой- Свойство 3 показывает, что ковариация обращается в нуль, если зависимость между ? и rj отсутствует. Как свидетельствуют приводимые ниже примеры, обратное утверждение, вообще говоря, неверно. Пример 1. Пусть (?, г)) = R[x2 + у2 ^ 1] — равномерно распределенная в круге с центром в начале координат и радиусом 1 двумерная случайная величина. Легко сообразить, что компоненты (иц этой случайной величины зависимы. Действительно, закон распределения одной из компонент (например, г/) зависит от значения, принятого другой: при ? = 0 диапазон изменения rj от -1 до 1, при ? = 1 tj при- принимает только нулевое значение. Ковариация же величин ? и rj, как показывают несложные выкладки, равна нулю: действительно, М? = Мi\ = 0 и Может показаться, что зависимость между ? и i\ в рассмотренном примере не замечена ковариацией, потому что она (зависимость) в некотором смысле «ненастоящая». Однако следующий пример демон- демонстрирует нам пару жестко связанных функциональной зависимостью случайных величин, ковариация которых также равна нулю. Пример 2. Пусть ( = R[-l, I], rf - ?2. Имеем to - Mi])] - но по теореме о математическом ожидании функции от случайной величины -^ (Г 1 - х • - dx = 0. J 2 -1 Чтобы понять роль ковариации (коэффициента корреляции) как показателя зави- зависимости между случайными величинами (и?/, рассмотрим следующую задачу: среди всех линейных функций от случайной величины ? найти ту, которая наилучшим обра- образом описывает связь между величинами (и?/. Другими словами, следует найти 1(?) = А? + В такую, что В + С, D) здесь ( — остаток, обладающий тем свойством, что М[(] = 0 и D[(] —* min. Докажем следующее утверждение.
120 Глава XLI. Числовые характеристики случайных величин Теорема. Если существуют D? = сг|, Drj = а^ М? = ние D) принимает вид при этом V ~ Щ = Р у (? ~ Щ) + С, min Я[С] = A -/>2К- Mr) = тпц, mo соотноше- E) F) ¦4 В силу МС, = 0 имеем В =>¦ В = и далее A2a\ - = D[V -A?-B] = D[V - Этот квадратный (относительно А) трехчлен достигает своего наименьшего значения в точке ¦"¦rnin — Последнее соотношение вместе с ранее полученным выражением для В и доказывает зависимость E). Равенство F) немедленно получается подстановкой Amin в выражение [] Вернемся к обсуждению роли коэффициента корреляции, как показателя зависи- зависимости между случайными величинами. Соотношение F) показывает, что если р = 0, то D[(] = D[r}], а формула E) принимает вид V ~ тч = С, т. е. линейной составляющей ? в описании случайной величины г] нет и вся изменчивость случайной величины 77 сосредоточена в «остатке» (. Если же р Ф 0, то для дисперсии D{q\ получаем D[r,} = a*=p2cr2, + (\-p2)crl G) где первое слагаемое отвечает линейной составляющей за- зависимости E), а второе — «остатку» (. Чем ближе зна- значение р к нулю, тем хуже линейная часть E) описывает тенденции в изменении величины щ (рис. 1). Чем ближе значение \р\ к 1, тем большая часть изменчивости случайной величи- величины rj описывается линейной составляющей соотношения E); при \р\ = 1 зависимость линейная, разброса у точек (?, rj) относительно прямой E) нет, величина ( с вероят- вероятностью 1 равна нулю (рис. 2). В случае р > 0 говорят о положительной коррелированности случайных вели- величин ? и г}: с ростом одной из них почти линейно растет и другая, в случае р < 0 — об отрицательной (рис. 2 а, Ь). Окончательно заключаем: ковариация {коэффициент корреляции) является мерилом степени линейной зависимости между случайными величинами. Равенство ковариа- ции (коэффициента корреляции) нулю свидетельствует лишь об отсутствии линейной связи между ними. Отличие ковариации (коэффициента корреляции) от нуля сви- свидетельствует о наличии связи между случайными величинами, причем, чем ближе коэффициент корреляции к единице, тем ближе эта связь к линейной. Рис. 1
§3. Характеристики связи 121 положительная корреляция р>0 а) отрицательная корреляция р < О б) Рис.2 линейная связь в) 3.2. Корреляционное отношение Для получения числовой характеристики, подобной коэффициенту корреляции, но охватывающей уже не только линейные, но и другие виды функциональных связей между случайными величинами, рассмотрим аналог задачи ©представлении случайной величины 7} в виде D): найдем функцию г(?) такую, что V = г@ + С, (8) где М( = О, D[(] -> min. Можно показать, что решение этой задачи существует и дается так называемым условным математическим ожиданием rj относительно ?, если последнее определено. Для нас же важно, что представление (8) сопровождается аналогом дисперсионного разложения G), а именно, дисперсия величины rj раскладывается в сумму двух дис- дисперсий alu\ и <г2 так, что величина каждой из них описывает вклад соответствующего слагаемого соотношения (8) в изменчивость rj D[v) = <у\ = cr2r{0 + <y\. (9) По аналогии с соотношением F) введем в рассмотрение величину в > 0 такую, что min D{(] = cT2< = (i-e2)cT2r A0) Отметим некоторые свойства показателя в. 1. о < е2 < 1 < Следует из неотрицательности слагаемых в соотношении (9). > 2_2 С&2-.2 3. Если в = 0, то изменение случайной величины rj не связано с изменением ?. (Заметим, что это не означает стохастической независимости случайных величин т\ и ? (см. пример 2), а говорит лишь об отсутствии тенденции к закономерному (описыва- (описываемому функциональной зависимостью) изменению rj с изменением ?. 4. Если в = 1, то между случайными величинами ? и т\ существует жесткая функциональная связь, описываемая функцией г(?). Промежуточные значения показателя в (между нулем и единицей) дают предста- представление о ширине корреляционного поля разброса точек (?, rj) относительно линии (рис. 3). 5. Если р — коэффициент корреляции пары (?, rj), то <К|р|^е<1, И = е*
122 Глава XLI. Числовые характеристики случайных величин Рис.3 < Для доказательства достаточно сравнить дисперсию остатка ( для г (?) = argmin D[(] и линейной функции /(?). Если г(?) линейна, то г(?) = 1(?) и б2 = р2 в силу F). Если же г(?) линейной функцией не является, то D[(] = A - A - 62)<r2 = min D[(] в силу оптимальности г(?), откуда следует искомое. > Величина в называется корреляционным отношением, а функция r(?) = argmin D[(] линией регрессии 7}на?. Заметим, что регрессия ц на ? и ? на 77 — это, вообще говоря, различные линии! И корреляционное отношение в несимметрично относительно компонент ? и rj. Величина, которую мы определили выше, является корреляционным отношением ве- величины т] относительно величины ? и, чтобы подчеркнуть это обстоятельство, обычно используют следующее обозначение аналогично для корреляционного отношения относительно Уже в случае линейной регрессии можно было заметить, что регрессия rj на ?, задава емая соотношением и регрессия ? на 77, задаваемая аналогичным уравнением = Р zr (V ~ это различные прямые, совпадающие лишь в случае \р\ = 1. Определенных соотношений между 6,^ и 6^/,, в общем случае нет. Как показы- показывает рассмотренный выше пример 2, при 6^ = 0 возможно даже 0,,/^ = 1.
§4. Старшие моменты. Асимметрия и эксцесс 123 §4. Старшие моменты. Асимметрия и эксцесс Начальным моментом случайной величины ? порядка s называется число центральным моментом случайной величины ? порядка s называется число Формулы A)-B) имеют смысл, если соответствующие интегралы сходятся. В про- противном случае говорят, что моменты не существуют. Начальные и центральные моменты свя- связаны между собой простыми соотношени- соотношениями «1 = 0; тп, = МЦ], О>2 — <Т = 7П2 — W], «з = шз — «4 — ^4 ~ 2Ш], 6/712771) — А=0 А>0 А<0 МЫ] Рис.4 Со старшими моментами (порядок которых выше второго) связаны две характеристики распределения, часто использующиеся в приложениях — асимметрия и эксцесс. Асимметрией распределения случайной величины i называется число C) Смысл асимметрии легко усматри- усматривается из формулы C): если А[?] < 0 — распределение имеет правую асимме- асимметрию, если А[?] > 0 — левую, при А[?] = 0 — распределение симметрично относительно прямой х = М[?] (рис.4). Четвертый центральный момент, нормированный четвертой степенью среднеквадратичного отклонения, на- называется эксцессом распределения = ?т-3. D) ЕШ>0 Рис.5 Эксцесс характеризует сглаженность кривой плотности распределения в сравне- сравнении со стандартным нормальным распределением (для него Е[?] = 0) (рис. 5). Однако это утверждение справедливо лишь для распределений, похожих на нор- нормальные.
Глава XLII ЗАКОНЫ БОЛЬШИХ ЧИСЕЛ И ПРЕДЕЛЬНЫЕ ТЕОРЕМЫ Важную роль в теории вероятностей и приложениях играют утверждения, уста- устанавливающие характер поведения больших совокупностей случайных величин. Дело в том, что отдельно взятая величина плохо прогнозируема — значения, принимаемые ею в конкретном эксперименте, случайны, и, даже зная ее закон распределения, мы не в состоянии предугадать результат. Замечательным свойством больших совокупностей является то их свойство, что при весьма неограничительных условиях они, в отличие от единичной случайной величины, ведут себя почти детерминировано: с увеличени- увеличением числа рассматриваемых случайных факторов суммарное воздействие, обусловленное этими факторами, становится все менее случайным. Важнейшими из утверждений, формализующими подобные, давно подмеченные практиками закономерности, являются законы больших чисел и предельные теоремы. Их обсуждению мы и посвятим настоящую главу. § 1. Законы больших чисел Пусть ?i ,&>•••> ?n >•••— попарно независимые случайные величины, обладающие математическими ожиданиями М& = т, и дисперсиями D& — а\. Теорема (закон больших чисел в форме Чебышё'ва). Если дисперсии а\ равномерно ограничены, т.е. 3 с: V г \aj\ < с, то V ? > О (О П П < Для доказательства предельного соотношения A) заметим, что случайная вели- величина tf, задаваемая соотношением п обладает математическим ожиданием М[ц] = ? ]? т,, дисперсией D[rf] = \ ]Р а и, следовательно, удовлетворяет неравенству Чебышёва
§ 1. Законы больших чисел 125 Из условия теоремы следует, что с га поэтому для любого фиксированного значения е > О имеем P{\tj — Mrj\ ^ е] пе2 Переходя в последнем соотношении к пределу при га —> оо, получаем искомое. > Доказанная теорема устанавливает, что с ростом количества случайных величин их среднее арифметическое сколь угодно мало отличается от детерминированного, не- неслучайного воздействия, обусловленного средним арифметическим математических ожиданий. Было бы неверно понимать соотношение A) буквально, как утверждение о бли- близости среднего арифметического случайных величин и среднего арифметического их математических ожиданий. Какое бы (может быть, очень маленькое) число е мы ни взяли, в подавляющем большинстве экспериментов разница между tj и M[rj] будет не больше е, причем доля таких случаев тем больше, чем больше га. В приведенной формулировке закон больших чисел оставляет возможность такого «плохого» экспе- эксперимента, когда разница между rj и M[rj] будет большой (больше е), однако доля таких, «плохих» экспериментов тем меньше, чем больше га. В приложениях (особенно в статистической физике) важную роль играет част- частный случай приведенной выше теоремы, относящийся к одинаково распределенным независимым слагаемым. Следствие 1 (закон больших чисел в форме Чебышёва для одинаково распределенных слагаемых). Пусть ?ь 6, • • • , ?п> • • • — независимые, одинаково распределенные случайные величины -ти DMA = а2. Тогда iim p{\-ibb- v ¦ t=l = 0. B) Замечание. Условие существования дисперсий может быть опущено (закон больших чисел в форме Хинчина). Другим важным следствием теоремы Чебышёва является теорема Я. Бернулли. Следствие 2 (закон больших чисел в форме Бернулли). Пусть Sn — число успехов в серии из п независимых испытаний с постоянной вероят- вероятностью успеха р в каждом испытании и vn = Sn/n — относительная частота числа успехов. Тогда с увеличением количества экспериментов п в подавляющем большинстве случаев частота vn будет мало отличаться от вероятности. Точнее lim P{\vn - р\ > е] = 0. C) п-юо
126 Глава XUI. Законы больших чисел и предельные теоремы ¦4 Доказательство следует из B), если взять ?,, i = 1, 2, ... , п, такие, что Р{?, = 1} = р, р{?, = 0} = q. Тогда М?, = р, дисперсия величины ?, существует, равна pq и применима теорема Чебышёва, при этом 1 С - У2 ?, = — = ип и m = Mi = p. > Теорема Чебышёва и ее следствия позволяют делать по результатам наблюдений за экспериментом достаточно надежные заключения о поведении случайных величин: дело в том, что относительная частота {vn = 5„/п) события — вещь, определяемая экспериментально, а утверждение C) связывает ее с вероятностью события и, тем самым, дает путь определения последней по результатам наблюдений. При использовании законов больших чисел полезно иметь в виду следующее важ- важное обстоятельство: они устанавливают близость относительной частоты {vn) и веро- вероятности (р), но они не утверждают, что среднее число успехов (рп) мало отличается от наблюдаемого числа успехов (?„)! Поясним эту мысль следующим примером. Пример 1. Пусть производится эксперимент с физически симметричной монетой, так что вероятности выпадения герба и решки можно считать одинаковыми, р = q = 1/2. Можно ли утверждать, ссылаясь на закон больших чисел, что при достаточно длительном экспе- экспериментировании число выпавших гербов (Г) и решек (Р) будет примерно одинаковым, т. е. |5„(Г) — 5„(Р)| -+• 0 при п ~* оо? Пусть ? — фиксированное положительное число. Закон больших чисел позволяет заключить, что при некотором, может быть, достаточно большом пе выполняется (в подавляющем большинстве случа- случаев) неравенство Sn(T) 5„(Р) < 2е. D) ne ne Отсюда |5„(Г) - ^„(P)! < 2ene. Но, как мы увидим ниже (п. 5.2.1), величина епе ведет себя как с^/Щ, где с — постоянная, и следова- следовательно, в достаточно длинной серии бросаний разность количества выпавших гербов и решек симме- симметричной монеты может стать сколь угодно большой! Звкон больших чисел в этой ситуации позволяет только утверждать, что отношение количеств вы- выпавших гербов и решек близко к единице, .<?_ <г\ «1. Пример 2. Пусть монету бросили 100 раз и 100 раз выпал герб. Какой результат следует ожидать при 101-м испытании? Теоретически возможны следующие три способа рассуждения в этой ситуации: 1. Монета симметрична, однако случайно так получилось, что выпало 100 гербов подряд. В силу независимости испытаний в 101 раз следует ожидать с равными вероятностями герб или решку. 2. Частота выпадения герба оказалась равной 1. Поэтому (закон больших чисел) монета скорее всего несимметрична и Р{Г} > -Р{Р}- В силу независимости испытаний в 101 раз скорее всего выпа- выпадет герб. 3. Монета симметрична, однако случайно так получилось, что выпало 100 гербов подряд. Посколь- Поскольку закон больших чисел утверждает, что частоты должны быть близки к вероятностям, а вероятность выпадения решки, в силу предположения о симметричности, равна 0,5, то и частота должна быть близ- близка к 0,5. Поэтому чем больше гербов выпало, тем вероятнее, что (для исправления искажения в частоте выпадения решек!) появится решка. ¦4 Внимательный анализ закона больших чисел позволяет в рассматриваемой ситуации сделать следующие выводы: — первое умозаключение теоретически безупречно, однако гипотеза о симметричности малоправ- малоправдоподобна — чтобы симметричная монета сто раз подряд в независимых испытаниях выпала гербом, необходимо чтобы осуществилось событие с вероятностью 2~100. Поэтому скорее всего следует резуль- результат объяснить несимметричностью монеты; — второе умозаключение теоретически безупречно и практически приемлемо; — третье умозаключение просто неверно, так как неявно предполагает наличие у монеты «памя- «памяти» — вероятность выпадения решки связывается с количеством решек, выпавших до рассматриваемого испытания. >
§2. Предельные теоремы 127 Завершая обсуждение законов больших чисел, рассмотрим еще один пример, качественно иллюстрирующий логику их применения. Пример 3 (правило среднего арифметического). Пусть о — некоторая величина, определяемая в эксперименте путем измерений. Каждое измерение Xi, i — 1,2,... ,п, складывается из значения а измеряемой величины и погрешности измерения ?, Х{ = а + Ъ, i = l,2,..., п. Практиками давно установлено, что для определения измеряемой величины а следует найти сред- среднее арифметическое измерений о и х = - ? Xi. E) " «=1 ¦4 Объяснение этому правилу дает закон больших чисел. Если предположить, что систематическая ошибка измерений отсутствует, т.е. М& = 0, то из соотношения E) следует i=l «=1 и для последнего слагаемого из закона больших чисел получаем p О, п -+ оо. Тем самым, в подавляющем большинстве экспериментов ошибка измерений Д = \х — а\ = - может быть неограничено уменьшена за счет дублирования измерений. Ниже (п. 5.2.2) мы уточним этот качественный результат количественно. > Заметим в заключение, что законы больших чисел (в приведенных выше фор- формулировках) утверждают устойчивость средних арифметических больших совокуп- совокупностей случайных величин, в частности (в формулировке Бернулли), устойчивость частот. Это теоретические утверждения являются следствием постулатов, положен- положенных в основание теории. Очевидно, что в реальной практической ситуации подобная устойчивость не обязана иметь место! Применимость же теории вероятностей к опи- описанию различных явлений в природе и обществе базируется именно на наличии в этих явлениях статистической устойчивости. Важно понимать, что подобная устойчивость должна быть установлена исследова- исследователем (или, по крайней мере, продекларирована) для того, чтобы теоретико-вероят- теоретико-вероятностные выводы имели смысл. Наличие теорем типа законов больших чисел не может служить основанием для утверждений о наличии статистической устойчивости в той или иной конкретной ситуации. §2. Предельные теоремы Как следует из результатов предыдущего пункта, среднее арифметическое большой совокупности случайных величин при определенных условиях ведет себя почти де- детерминировано — мало отличается от среднего арифметического их математических ожиданий. Это утверждение носит качественный характер и в практической ситуации не всегда содержательно. Точный ответ на вопросы «При каких те...?» и «Насколько и как часто отличается совокупное случайное среднее от неслучайного среднего матема- математических ожиданий?» в рамках законов больших чисел (в приведенных формулиров- формулировках) получить нельзя. Развитая выше теория (гл. XL, п. 3.2) говорит, что необходимо знание распреде- X) ?,) или, что то же, средней суммы (? Е &) • Однако, как уже отмечалось, задача нахождения закона распределения суммы случайных величин в об- общем случае — это довольно сложная в теоретическом плане и громоздкая в плане
128 Глава XUI. Законы больших чисел и предельные теоремы технической реализации задача, требующая знания законов распределения слагаемых. Так что для случайных величин, законы распределений которых «плохо» сворачива- сворачиваются, получение распределений их сумм для достаточно больших значений га задача, скорее всего, практически нереализуемая. Впрочем, и для «хорошо» сворачивающих- сворачивающихся распределений работа с распределением суммы большого числа слагаемых может оказаться технически затруднительной. Спасти ситуацию может только чудо, и таким чудом в теории вероятностей как раз и являются предельные теоремы. 2.1. Теорема Муавра—Лапласа Мы начнем изучение ситуации с довольно простого на первый взгляд, но важного для приложений случая, когда все ?, — независимые, одинаково распределенные случай- случайные величины, принимающие значения 1 и 0 с вероятностями р и q соответственно, п р + q = 1. В этом случае ]Г) ?, = 5„ — биномиальная случайная величина с параме- t=i трами (га, р), распределение которой нам хорошо известно к<х г \Х) — г \оп ч Ж;- / ^ ^пР Я К1) Вероятности, связанные с суммой Sn, в принципе легко могут быть найдены для ь Р{а < Sn < Ь} = J2 Ckpkqn~k. B) к=а Однако уже для небольших значений га воспользоваться соотношением B) доволь- довольно трудно — вычисления оказываются очень громоздкими. Пример 1. Сколько раз следует подбросить симметричную монету, чтобы с надежностью х, не худшей чем 0,99, частота появления герба отличалась от вероятности не больше, чем на 0,01? < Для получения ответа на вопрос задачи следует решить неравенство < 0,01 i >0,99 ,0l|>0,9 отношени С* @,5)" ^0,99, C) п (р = 0,5; е = 0,01) относительно п. Использование соотношения B) приводит к неравенству ¦ 0,51п ¦чк 0,49п для которого проверка, удовлетворяет ли ему, к примеру, число п = 100, — довольно утомительная вычислительная задача. > К счастью, для больших значений га может быть указано сравнительно простое правило вычисления вероятностей A)-B). Сначала заметим, что если га —* оо, то выражение для индивидуальных вероятно- вероятностей P{Sn — к} может быть упрощено за счет замены факториалов приближенным выражением по известной из анализа формуле Стерлинга n\ = V2™-nne-n-(l+en), D) где 6„ —> 0 при га —> оо. Действительно, легко убедиться в том, что где 6n,fc —»¦ 0 при га —> оо.
§2. Предельные теоремы 129 Ниже запись А(х) ^ В(х) будет обозначать, что lim А/В = 1 или, что то же, А(х) = В(х)(\ + в), где в —> 0 при х —> xq. В силу закона больших чисел, при больших значениях п сумма 5„ с заметной вероятностью принимает только те значения к, которые удовлетворяют условию \к — пр\ ^ пе. Полагая Ак = к - пр, F) заключаем, что п —> оо влечет за собой к —> оо и Д*/п —»¦ 0. Подставим выражения для пр — к - Д* и nq — п - к + Д* в формулу E) и получим, что 1 i z: / л \ fc / а \ п—к Отсюда / п =/пр\ к(п-к) \kj n-kj С учетом полученных соотношений равенство G) примет вид P{Sn = к} * JL 1 {^2^ л/2тг или, после замены fc/n".fc\ на ^ и Д^ на к - пр, P{Sn = к} ? -1= -1= exp{-i(fc-npJ —}. (8) Последнее соотношение представляет собой приближенную формулу для подсчета индивидуальных биномиальных вероятностей и составляет содержание локальной пре- предельной теоремы Муавра—Лапласа. Она пригодна в ситуациях, когда р и q не слишком малы и не слишком близки к единице (в этом случае, как мы знаем, можно использо- использовать приближение Пуассона), а п достаточно велико. Практически же, если пр > 10, 0,1 < р < 0,9, то вычисление индивидуальных биномиальных вероятностей P{Sn = k} по формуле (8) дает вполне приемлемые результаты. Пример 1. Симметричную монету бросили 20 раз. Какова вероятность того, что герб появится ровно 7 раз? < ^20 — количество появлений герба в рассматриваемом эксперименте, Фо = #[20; 0,5]. Поэтому P{S20 = 7} = С27о(О,5J0 = 0,074. Формула (8) дает: пр — 20 • 0,5 = 10; npq — 5; л/npq = 2,236 = 7> = 4= Лг, ехр {-^G - ЮJ -11= 0,0727, что практически неотличимо от точного результата. >
130 Глава XLII. Законы больших чисел и предельные теоремы Для решения задачи приближенного вычисления совокупных биномиальных ве- вероятностей A)-B) рассмотрим соотношение B) с учетом выражения (8) для индиви- индивидуальных биномиальных вероятностей P{Sn = к}: Р{а < Sn < Ъ} = j^ P{Sn = к} 2 ? -±= -±= exP{-^f^l. (9) Положим к — np 1 a — np b — np ; Ax = xfe+1 - х* = ; xa = ; xb = /npq jnpq k , ; fc fe+1 a y/npq y/npq yjnpq VnPQ Заметим, что при неофаниченном увеличении п промежуток [ха, х&] изменения пе- переменной х передвигается вдоль числовой прямой неофаниченно вправо, при этом его длина 1п = х& - ха = -т==== неофаниченно уменьшается. Поэтому, вообще говоря, /npq нет смысла пытаться вычислять сумму (9) при фиксированных а и Ь — с увеличением п эта сумма стремится к нулю. Пусть ха и х& фиксированы. Тогда в принятых обозначениях сумма (9) запишется в виде k=a При п -+ оо выражение справа можно интерпретировать как интефальную сумму для интефала Ха что приводит к следующему утверждению, впервые установленному Муавром для р = q = 1/2 и обобщенному Лапласом на случай произвольных р. Теорема (интегральная теорема Муавра—Лапласа). Пусть Sn — биномиальная случайная величина с параметрами пир (рФ 0, рф 1). Тогда при п —> оо равномерно относительно -оо < ха < хь < +оо справедливо соотношение Предельное соотношение A0) является источником формул приближенного вы- вычисления совокупных биномиальных вероятностей. В самом деле, пусть п достаточно велико, так что A0) имеет место. Тогда (а-пр Sn-np b-np) /b~ npq y/npq \/npq ) \ (И) )-F (—=Ь , X где F(x) = -^ / exp{-| x2} dx — функция Лапласа. — 00 Уже при относительно небольших значениях п для средних (далеких от 0 и 1) значений р и q точность приближенного соотношения A1) достаточно высока. При-
§ 2. Предельные теоремы 131 веденные ниже данные иллюстрируют порядок точности при замене совокупных бино- биномиальных вероятностей по формуле A1) для различных значений га, рик. В каждой ячейке таблицы в числителе приведено точное значение вероятности P{Sn ^ к}, а в знаменателе — ее приближенное значение для соответствующих п, рик. Теперь мы можем уточнить закон больших чисел в форме Бернулли и получить не только качественные, но и содержательные количественные заключения. Поскольку га -р то, применяя соотношение A1) к последней вероятности, получаем ¦{ A2) Формула A2) позволяет получать конкретные ответы на конкретные вопросы «Как часто?», «С какой точностью?», «При каком га?». п 20 50 к 10 15 20 20 35 40 Р 0,2 0,804 0,711 0,999 0,999 1,0 1,0 0,999 0,999 1,0 1,0 1,0 1,0 0,4 0,126 0,085 0,872 0,819 0,999 0,999 0,561 0,5 0,999 0,999 1,0 1,0 0,7 0,000043 0 0,048 0,0255 0,762 0,687 0,0 0,0 0,553 0,5 0,960 0,939 п 25 100 к 5 10 20 40 60 80 Р 0,2 0,617 0,5 0,994 0,994 1,0 1,0 0,999 1,0 1,0 1,0 1,0 1,0 0,4 0,029 0,021 0,586 0,5 0,999 0,999 0,543 0,5 0,999 0,999 1,0 1,0 0,7 0 0,0005 0,0078 0,137 0,909 0,862 0,0 0,0 0,021 0,015 0,991 0,986 Пример 1. Симметричную монету бросили 100 раз. Как часто число выпавших гербов будет отличаться от среднего не более чем на 10? •4 Это прямой вопрос о величине вероятности P{\Sn-np\< 10} для п = 100 и р = 0,5. В соответствии с A2) имеем P{\Sn - пр\ < 10} = 2FB) - 1 « 0,9545 — в подавляющем большинстве случаев при 100 бросаниях симметричной монеты следует ожидать, что число выпавших гербов не меньше 40 и не больше 60. Отметим, что точное значение искомой вероятности равно 0,9540. > Пример 2. Насколько большие отклонения частоты появления герба (в эксперименте с симметричной монетой) от 0,5 можно ожидать в подавляющем большинстве случаев, если монету бросили 50 раз? 100 раз? < Вопрос задачи, это вопрос о величине е, удовлетворяющей условию где 0 < у. < 1 — величина вероятности, отвечающая нашим представлениям о том, как понимать «в подавляющем большинстве случаев». Конечно, хотелось бы положить к = 1, однако в этом случае ответ на вопрос тривиален: е — любое число, не меньшее 1. Для получения нетривиальной информа- информации о точности поступимся надежностью. Возьмем к близкое к единице настолько, чтобы событиями с вероятностью, меньшей 1 —у, можно было пренебречь. Это, правда, даст нам возможность получить
132 Глава XLII. Законы больших чисел и предельные теоремы оценку для е, справедливую уже не для всех экспериментов, а только для к -доли из них. Но поскольку такие эксперименты достаточно часты (к взята близкой к единице!), постольку полученная информа- информация о величине е оказывается информативной. Взяв, например, к — 0,9, получим для определения е неравенство ( я Л г 0,9. С учетом A2) это приводит к соотношению или Полагая п = 50, 100, р = q = 0,5 и учитывая монотонное неубывание функции Лапласа, получаем у/РЯ '@,95) = 1,6449, откуда A3) Для п = 50 е не меньше 0,126, для п = 100 — 0,082. Из A3) очевидно, что с ростом п ожидаемые отклонения (при фиксированной надежности к) убывают пропорционально \fn. Для заданной надежности при п = 100 точное решение поставленной задачи ? а 0,080. > Пример 3. Сколько раз следует бросить монету, чтобы не менее чем в 99 случаях из 100 наблюдаемая частота выпадения герба отличалась от вероятности не более чем на 0,01? ¦4 Этот вопрос о количестве экспериментов, необходимых для оценивания неизвестной вероятно- вероятности выпадения герба из неравенства < Л ^0,99. Соотношение A2) дает Заметим, что в силу неравенства можно заключить, что p + q 2еу/п. В силу монотонности функции Лапласа для любых р и q Поэтому, если п удовлетворяет условию то подавно FBeVn) Z 0,995, ^^ 0,995. Определив п из последнего неравенства, мы заведомо решим поставленную задачу, может быть, и несколько завысив необходимое число экспериментов. Несложные выкладки дают оценку FBeV^ ^ 0,995 => 2eyfa ^ F~l@,995) = 2,5758, откуда для п получаем / 2,5758 V п = 16586.
§ 2. Предельные теоремы 133 Столь большое количество экспериментов объясняется высокими требованиями к надежности, заданны- заданными условиями задачи. Если требование к надежности несколько снизить, то и оценка для п уменьшится. Так для х = 0,9 п ~ 6764, а для к = 0,8 п ~ 4106. В заключение отметим, что в реальных экспериментах по оценке симметричности монеты наблю- наблюдались следующие результаты: эксперимент Бюффона — 4040 бросаний, Sn = 2048, р — 0,5069; эксперимент Пирсона ! — 12000 бросаний, Sn = 6019, р = 0,5016; эксперимент Пирсона !1 — 24000 бросаний, 5„ = 12012, р = 0,5005. > 2.2. Теорема Ляпунова Теорема Муавра—Лапласа помимо возможности вычисления индивидуальных и сово- совокупных биномиальных вероятностей предоставляет нам еще возможность по новому взглянуть на «взаимоотношение» различных классов случайных величин и их распре- распределений. Действительно, соотношение A0) предыдущего пункта в форме A4) может быть прочитано как похожесть распределения центрированной и нормированной суммы независимых бернуллиевых случайных величин на нормальное распределение, что достаточно удивительно. Еще более удивительным и неожиданным оказывается тот факт, что если взять не бернуллиевы, а любые другие случайные величины, то при весьма необременитель- необременительных требованиях центрированная и нормированная их сумма будет иметь распределе- распределение, близкое к нормальному! Точные утверждения, формализующие это наблюдение, носят в теории вероятно- вероятностей название центральных предельных теорем, формулировке одной из которых мы посвятим этот пункт. Может быть доказана следующая Теорема. Пусть ?i ,&»•••» 6i — независимые случайные величины с конечными мате- математическими ожиданиями М?, = га,-, дисперсиями Z>?, = <г}, третьими моментами & — ГП{\Ъ = г/ и выполнено условие 1 " Нт гуг V т1 = 0. A5) @ ? Тогда равномерно относительно х. Отметим, что теорема не предъявляет никаких требований к законам распределе- распределения слагаемых! Важное условие A5) может быть интерпретировано как требование «приблизительной одинаковости» слагаемых. Понятно, что без этого (или другого подобного) условия теорема перестает быть верной, ибо доминирующее слагаемое может подавить прочие слагаемые в сумме и тем самым будет определять ее распределение. Для практических приложений весьма важен случай одинаково распределенных величин. В этом случае условия теоремы упрощаются — можно доказать, что если
134 Глава XUI. Законы больших чисел и предельные теоремы все ?, — независимые одинаково распределенные случайные величины с конеч- конечными математическим ожиданием т и дисперсией а2, то A6) справедливо без дополнительного условия A5). Теорема Ляпунова указывает на ту особую роль, которую в теории вероятностей и ее приложениях играет закон нормального распределения — сумма большого числа примерно одинаковых случайных слагаемых имеет почти нормальное распределение. Поэтому на практике, когда приходится изучать воздействия, обусловленные большим числом факторов, принимают обычно гипотезу о нормальном характере суммарного воздействия1^. Как и теорема Муавра—Лапласа, теорема Ляпунова может служить источником формул для приближенного вычисления вероятностей, связанных с большими сумма- суммами случайных величин. Пример 1. Получим аналог соотношения A2) предыдущего пункта для закона больших чисел в форме Чебышёва. •4 Имеем В силу соотношения A6) для последней вероятности при достаточно больших п получим Это и есть искомое соотношение для вычисления вероятностей уклонений случайных средних от средних математических ожиданий. В случае одинаково распределенных слагаемых с конечными М(, — т и дисперсиями D?, = <г2 соотношение A7) принимает вид Пример 2 (метод Монте-Карло вычисления интегралов). Пусть требуется вычислить интеграл 1 I = Jf(x)dx. A9) о Рассмотрим случайную величину ? = R[Q, 1] и заметим, что интеграл A7) может быть представлен как М/(?). Поэтому, если Х\, Xi,..., Хп — реализации случайной величины ?, то, в силу закона больших чисел ' и 1~ Е /№)• Для оценки точности приближенного соотношения B0) нужно уметь оценивать величину а для этого, в свою очередь, следует уметь решать неравенство Р{|ДП| < е} > х B1) относительно е > 0 при заданных значениях к и п. Если п достаточно велико, то в основу B1) может быть положено соотношение A8). Действительно, f(X,), i = 1, 2,..., п, — независимые, одинаково распределенные случайные величины, для которых Mf(Xt) = I. Поэтому f^l, B2) ' Часто и тогда, когда для этого нет никаких оснований. Отметим, что как и выше, в случае с устой- устойчивостью частот, теоретический факт — в данном случае теорема Ляпунова — может послужить только наводящим соображением о возможной нормальности, но не может служить доказательством наличия нормальности.
§2. Предельные теоремы 135 где <г2 = ?>/(?)• Для оценки величины <т2 заметим, что в силу интегрируемости функция f(x) ограничена — |/(х)| < а — и поэтому а2 - Df(?) - М[/(JT,-) -I]2 < 4а2. Отсюда, как и в примере 3 преды- предыдущего пункта, и из 2F [ I — 1 > к следует, что заведомо и V 2а / При фиксированном (и близком к единице) к для ? имеем /l+xV ^a V 2 ;*vr Таким образом, увеличивая п, мы в подавляющем большинстве случаев гарантируем (с надежностью х) точность е в вычислении интеграла A9) по формуле B0). >
Задачи к разделу 1. Построить пространство элементарных событий для эксперимента: одновременное бро- бросание трех игральных костей. Описать в терминах элементарных исходов следующие случайные события: А = {сумма очков равна 9}. В = {выпали одинаковые цифры на всех костях}. С = {хотя бы на одной кости выпала единица}. Совместны ли события А и В? А и С? В и С? А, В и С? Зависимы ли события Аи В? А и С? В и С? Найти вероятность того, что по крайней мере на одной кости выпала 3, если известно, что сумма выпавших очков равна 9. 2. Вероятность выбора точки из плоской области, лежащей внутри круга радиуса 1 с цен- центром в начале координат, принимается пропорциональной кубу длины проекции этой области на ось абсцисс. Согласуется ли такое правило подсчета вероятностей с требованиями, предъ- предъявляемыми к вероятности? 3. Из множества точек, расположенных на отрезке [0, 1], случайным образом выбирают одну, причем полагают вероятность выбора из подотрезка [а, /3] пропорциональной sin /3 — sin а. Согласуется ли такой способ подсчета вероятностей с требованиями, предъявляемыми к вероятности? 4. Вероятность выбора точки из дуги полуокружности радиуса 1, с центром в начале коор- координат, расположенной в верхней полуплоскости, принимается пропорциональной длине проек- проекции этой дуги на ось OY. Согласуется ли такое правило подсчета вероятностей с требованиями, предъявляемыми к вероятности? 5. Из множества точек, расположенных на отрезке [0, 1], случайным образом выбирают одну, причем полагают вероятность выбора из подотрезка [а, /3] пропорциональной arctg /3 — arctg а. Согласуется ли такой способ подсчета вероятностей с требованиями, предъявляемыми к вероятности? 6. Вероятность выбора точки из дуги полуокружности радиуса 1, с центром в начале ко- координат, расположенной в верхней полуплоскости, принимается пропорциональной синусу длины проекции этой дуги на ось ОХ. Согласуется ли такое правило подсчета вероятностей с требованиями, предъявляемыми к вероятности? 7. Вероятность выбора точки из дуги полуокружности радиуса 1, с центром в начале ко- координат, расположенной в верхней полуплоскости, принимается пропорциональной синусу длины проекции этой дуги на ось ОХ. Согласуется ли такое правило подсчета вероятностей с требованиями, предъявляемыми к вероятности? 8. Указать ошибку в рассуждениях: агрегат выходит из строя, если выходит из строя по крайней мере один из его узлов А или В. Узел А выходит из строя с вероятно- вероятностью pi, В — с вероятностью рг. Найдем вероятность выхода из строя агрегата. Событие U = { агрегат вышел из строя} является объединением событий А = { узел А вышел из строя} и В = { узел В вышел из строя}, U — A U В. Поэтому: Р(Ы) = Р(А) 4- Р(В) = р, +р2. Пусть, к примеру, Р(А) = р\ = 0,4; Р(В) = pi = 0,6, тогда P{U) = 1, т.е. агрегат наверняка не работает. 9. Вероятность попадания точки М(х, у) в область D, лежащую в квадрате К = {(х, у) : \х\ ^ 1» \у\ ^ 1Ь пропорциональна площади этой области: Р(М € D) = \S(D). Найти {|}
Задачи к разделу. 137 10. Вероятность попадания точки М(х, у) в область D, лежащую в квадрате К = {\х\ ^ 1, \у\ ^ 1}, пропорциональна площади этой области Р{М € D} = \S(D). Найти Р {min(x, у) < 1/2}. 11. Вероятность попадания точки М(ж, у) в область D, лежащую в квадрате К = {\х\ ^ 1, \у\ ^ 1}, пропорциональна площади этой области Р{М € D} — \S(D). Найти Р{ху < 0,5}. 12. Вероятность попадания точки М(х, у) в область D, лежащую в квадрате К = {(ж, у): \х\ ^ 1, \у\ ^ 1}, пропорциональна площади этой области P{D Э М} = ^S(D). Найти Р {тах(ж, у) < 1/2} . 13. Пусть (а, Ь) — координаты случайной точки в квадрате К = {(о, Ь): |о| ^ 1, \Ь\ ^ 1}. Найти вероятность того, что корни уравнения х2 + ах + Ь = 0 действительны. 14. Пусть о, b координаты случайной точки в квадрате К = {(о, b): |o| ^ I, |b| ^ 1}. Най- Найти вероятность того, что корни уравнения х1 + ах + b = 0 положительны. 15. Вероятность попадания точки на дугу окружности х2 + у2 = 1 пропорциональна длине дуги D: Р{М € D) — \/Bn)L(D). Пусть (ж, у) — координаты точки. Найти Р{\х + у\ ^ 1}. 16. В урне находится некоторое количество шаров, причем известно, что белых вдвое боль- больше, чем черных. Из урны извлекают пару шаров. При этом IP {извлечены одноцветные шары} = 8Р {извлечены разноцветные шары}. Можно ли по этим данным установить количе- количество шаров, лежащих в урне? 17. Известно, что при двукратном бросании монеты вероятность наблюдения одноименных сторон больше вероятности наблюдения разноименных сторон этой монеты. Установить, не противоречат ли эти данные предположению о симметричности монеты. 18. В урну, в которой было одинаковое количество белых и черных шаров, добавили один шар. При этом вероятность извлечения из урны пары разноцветных шаров изменилась на 1/48. Выяснить, уменьшилась или увеличилась эта вероятность, и установить, какое количество ша- шаров было в урне. 19. В урне лежит 4 шара. Известно, что при извлечении из урны двух шаров (без возвраще- возвращения) вероятность извлечения двух одноцветных шаров вдвое меньше вероятности извлечения разноцветной пары. Можно ли по этим данным установить состав шаров в урне? 20. В урну, в которой было одинаковое количество белых и черных шаров, добавили один шар. При этом вероятность извлечения из урны пары разноцветных шаров изменилась на 1/15. Выяснить, уменьшилась или увеличилась эта вероятность, и установить, какое количество ша- шаров было в урне. 21. Из урны, содержащей всего 6 белых и черных шаров, извлекают одновременно два шара. Известно, что вероятности извлечения одноцветных и разноцветных шаров относятся как 7:8. Можно ли по этим данным установить состав шаров в урне? 22. Надежность (т. е. вероятность безотказной работы в течение некоторого времени Т) каждого из элементов Л;, г — 1, 2, 3, 4, объединенных в релейную схему (см. рис.), равна р,. Найти надежность схемы. 23. Надежность (т. е. вероятность безотказной работы в течение некоторого времени Т) каждого из элементов Л,, i = 1, 2, 3, 4, 5, объединенных в релейную схему (см. рис.), равна р{. Найти надежность схемы.
138 . Задачи к разделу ^2 А, А 24. Случайная величина f имеет пуассоновское распределение и известно, что ее матема- математическое ожидание т и дисперсия D связаны соотношением D2 — т = 2. Найти вероятность p(Z > з). 25. Случайная величина f имеет пуассоновское распределение и известно, что Р{? = 0} = е~2. Найти математическое ожидание случайной величины f3 + f. 26. Случайная величина f имеет пуассоновское распределение и известно, что Р(? > 0) = 0,8. Найти математическое ожидание случайной величины 2?2 — 5?3. 27. Случайная величина f имеет экспоненциальное распределение с математическим ожи- ожиданием т и дисперсией D. Известно, что ID—Ът = 2. Найти вероятность того, что — 2 ^ ? ^ 2. 28. Случайная величина ? экспоненциально распределена и известно, что Р(? > 1) = 0,3679. Найти математическое ожидание случайной величины 4f2 + 4? + 4. 29. Случайная величина ? равномерно распределена на промежутке с центром в —3 и известно, что Р(? > —2) = 0,25. Найти математическое ожидание случайной величины 2 30. Случайная величина f равномерно распределена на промежутке и известно, что ее математическое ожидание т и среднеквадратичное отклонение а связаны соотношением Г Зт + 2ч/3> = 4, \ го = у/За - 2. Найти вероятность Р{? ^1}. 31. Функция распределения случайной величины f непрерывна в R и дана соотношением 0, 4а Найти параметры а, /3, плотность случайной величины f, математическое ожидание случайной величины Y = 2? + 1, дисперсию случайной величины У) = —3? - 4 и вероятность того, что е > о,5. 32. Плотность распределения случайной величины f дана соотношением и известно, что М? = -4, D? = 9. Найти параметры а, /3 и j, a также вероятность того, что |3? + 4|<11. 33. Плотность распределения случайной величины ? непрерывна на всей прямой и дается соотношением: /<(') = ¦{ 0. t< -\ut> i.
Задачи к разделу 139 Найти параметры а, {3,у, функцию распределения случайной величины ?, математическое ожидание случайной величины 771 = 3? - 1, дисперсию щ = -? — 1 и вероятность того, что f не меньше 1/2. 34. Функция распределения случайной величины f непрерывна в R и дана соотношением ад = О, х + 7 1, ж Найти значения постоянных /3 и у, плотность распределения случайной величины f, мате- математическое ожидание случайной величины Y\ = -3f + 4, дисперсию случайной величины У2 = — 2f — 8 и вероятность того, что случайная величина Уз = — 4? заключена в пределах от -8 до 2. 35. Плотность распределения случайной величины X дана соотношением fx(t) = exp{af2 + Pt + с} и известно, что MX = 2, DX = 9. Найти значение параметров a, b и с, а также вероятность того, что |2? + 4| < 6. 36. Прибор проходит испытания на надежность, причем время безотказной работы прибо- прибора — экспоненциальная случайная величина, с параметром /л = 0,5. Сколько приборов следует испытать, чтобы с вероятностью, не меньшей 0,9, отобрать среди них не менее трех, прошедших испытания без отказов? Известно, что испытания одного прибора проходят 1,5 часа. 37. Функция распределения случайной величины ? непрерывна в R и дана соотношением 0, х ^ 3, 1, х ^ 4. Найти параметры /3 и у, плотность распределения случайной величины f, математическое ожидание случайной величины У) = 8? - 3, дисперсию случайной величины У2 = -4? + 2 и вероятность того, что случайная величина Уз = — 3? заключена в пределах от —11 до —10. 38. Случайная величина f имеет пуассоновское распределение с параметром А = 2,5. Най- Найти закон распределения, математическое ожидание и дисперсию случайной величины г}, задан- заданной соотношением 39. Функция распределения случайной величины f непрерывна на R и дана соотношением 0 т < -1 7 1, х >2. Найти значения постоянных /3 и 7, плотность распределения случайной величины f, математи- математическое ожидание случайной величины Yx = 2$-3, дисперсию случайной величины У2 = -3^ + 5 и вероятность того, что случайная величина Уз = -2? заключена в пределах от -5 до 1. 40. Плотность распределения случайной величины f дана соотношением f((t) = exp{af2 + 0t + 7} и известно, что Mf = —4, D? — 9. Найти параметры а, /? и у, а также вероятность того, что
140 Задачи к разделу 41. Функция распределения случайной величины ? дана соотношением X x) = I exp{of2 + bt + c} df и известно, что М? = —2, Р{\? + 2| < 1} = 0,668. Найти параметры о, Ь, с. 42. Функция распределения случайной величины ? дана соотношением x x) ~ I exp{af2 + pt + c] dt и известно, что М? = -4, Р{|? + 4| < 3} = 0,758. Найти параметры о, b и с. 43. Время безотказной работы электронной лампы — экспоненциальная случайная вели- величина со средним 5. Для увеличения надежности агрегата ставят параллельно несколько ламп. Сколько ламп следует запараллелить, чтобы с вероятностью, не меньшей 0,99, по крайней мере, одна из них не вышла из строя за 10 часов? 44. Прибор проходит испытания на надежность, причем время безотказной работы прибо- прибора — экспоненциальная случайная величина, с параметром /i — 0,5. Сколько приборов следует испытать, чтобы с вероятностью, не меньшей 0,9, отобрать среди них не менее трех, прошедших испытания без отказов? Известно, что испытания одного прибора проходят 1,5 часа. 45. Случайное отклонение размера детали от заданного является нормальной случайной величиной с параметрами т = 0, а = 5мк. Сколько необходимо изготовить деталей, чтобы с вероятностью, не меньшей 0,99, среди них была хотя бы одна годная, если для годной детали допустимо отклонение от заданного размера не более, чем на 2 мк? 46. Изделие считается изделием 1-го сорта, если отклонение его размеров от номинала не превышает 3,45 мм. Эти отклонения случайны и подчиняются нормальному закону, причем систематические отклонения отсутствуют, а среднеквадратичное отклонение равно 3 мм. Найти среднее число первосортных изделий, если было изготовлено 4 изделия. 47. Случайное отклонение размера детали от заданного — нормальная случайная величина с параметрами т, <г. Изделие подлежит переделке, если отклонение превышает 10 мм. Найти функцию распределения отклонений для изделий, подлежащих переделке. 48. Случайная величина ? имеет пуассоновское распределение с параметром А = 1. Найти закон распределения, математическое ожидание и дисперсию случайной величины 77, с равными вероятностями принимающей значения (— 1)* и (—1)^+). 49. Время безотказной работы двигателя — экспоненциальная случайная величина со сред- средним 1000 часов. Найти среднее число двигателей, вышедших из строя за 2000 часов, если в запасе их было 10. 50. Время t безотказной работы ЭВМ распределено по экспоненциальному закону с пара- параметром 1. Решение определенной задачи требует безотказной работы машины в течение 2 минут. Если за это время происходит сбой, то задачу приходится решать заново. Сбой можно обна- обнаружить только после окончания решения. Найти закон распределения времени, необходимого для решения задачи. 51. Браковка шариков для подшипников производится следующим образом: если шарик не проходит через отверстие диаметром 10 мм, но проходит через отверстие диаметром 12 мм, то его размер считать приемлемым. Если не выполнено первое условие — шарик бракуется, если второе — идет в переделку. Известно, что диаметр шарика — нормальная случайная величина с параметрами A1 мм; 0,5 мм). Найти распределение числа шариков, идущих в переделку, если было изготовлено 10 шариков. 52. Двумерная случайная величина (?, 77) задана"* своей функцией распределения Fiv(x, у). Найти вероятность попадания этой случайной величины в указанную на рисунке область'
Задачи к разделу. 141 1 \ с A. EPfeBjfcl _ q- ргштатишп р i j Ш 1 j 1 2 3 5 6 53. Пара случайных величин X и Y имеет совместное нормальное распределение с векто- вектором математических ожиданий {2, 1} и ковариационной матрицей К К[X, Y] = а2 1 4 Известно, что Р{Х + Y < 3} = 0,65. Найти DX, DY. 54. Найти ковариацию ординаты и абсциссы точки М, равномерно распределенной в тре- треугольнике с вершинами ЛA, 1), J?@, 1) и СA, 0). Зависимы ли эти случайные величины? 55. Найти ковариацию ординаты и абсциссы точки М, равномерно распределенной в тре- треугольнике с вершинами А(-2, 0), В@, 1) и СA, 0). Зависимы ли эти случайные величины? 56. Случайные величины ?, г) и ? независимы и распределены нормально с параметрами соответственно М? = Mq = МС, = 5. = 2Dt) = Найти дисперсию случайной величины 2$ - 3?, если известно, что Р{2? + г) < 20} = 0,9973. 57. Случайные величины X, Y и Z связаны соотношением 4Х — 2Y+ +3Z = 0. Известно, что MX = 0, MY = 0, MZ = 0, этих случайных величин. 58. Случайные величины ?i, риационной матрицей = DF = DZ = = 1. Найти ковариационную матрицу и ?э имеют совместное нормальное распределение с кова- кова3<7 о о 2 о о a2 0 0 ^ и вектором математических ожиданий B, 2, 1). Найти дисперсию случайной величины f t, если известно, что сумма ?i + & + ?э в 99 случаях из 100 принимает значения не меньше 3,4. 59. Случайные величины f, т) и ? независимы и распределены нормально с параметрами соответственно М? = Mr) = М( = 5. = 5DC = Найти дисперсию случайной величины f - С, если известно, что Р{2? + г) < 20} = 0,9973. 60. Случайные величины ?\,& и 6 независимы и нормальны с одинаковым средним, равным 3. Известно, что их дисперсии относятся соответственно как 1 : 3 : 2. Найти ковариа- ковариационную матрицу этих случайных величин, если известно, что > 15} = 0,001.
142 Задачи к разделу 61. Двумерная случайная величина (X, Y) имеет вектор математического ожидания G, —1) и ковариационную матрицу Достаточно ли этих данных, чтобы спрогнозировать значения компоненты Y при известных значениях компоненты X ? 62. Случайные величины ?, т) и ? независимы и распределены нормально с параметрами соответственно М? = Mr) = М? = 6, 10#? = 2Dtj = 5DC = Ю<72. Найти дисперсию случайной величины f — 4?, если известно, что + п < 20} = 0,9973. 63. При проведении телепатического опыта индуктор независимо от предшествующих опы- опытов выбирает с р = 0,5 один из двух предметов и думает о нем, а реципиент угадывает, о каком предмете думает индуктор. Опыт был повторен 100 раз и при этом было получено 60 правиль- правильных ответов. Какова вероятность правильного ответа в одном опыте, в предположении, что телепатической связи между индуктором и реципиентом нет? Можно ли приписать наблюден- наблюденный результат случайному совпадению или он говорит о наличии телепатической связи между индуктором и реципиентом? 64. Для лица, дожившего до 20-летнего возраста, вероятность несчастного случая на 21-ом году равна 0,006. Застрахована группа в 10000 человек 20-летнего возраста, причем страховой взнос составляет 1,2 рубля. В случае несчастья страховое агентство выплачивает застрахованно- застрахованному 100 руб. Какова вероятность того, что к концу года страховое агентство разорится? Его доход превысит 4000 рублей? 65. Театр, вмещающий 1000 человек, имеет 2 разных входа. Около каждого из входов свой гардероб. Зрители приходят парами и каждая пара, независимо от прочих, выбирает случайным образом один из входов. Сколько мест следует иметь в каждом из гардеробов, чтобы не менее чем в 99 случаях из 100 зрители могли раздеться в гардеробе того входа, через который они вошли? 66. Для проверки влияния нового лекарства на кровяное давление у 100 пациентов было измерено давление до и после приема лекарства. При этом оказалось, что в 32 случаях давление после приема лекарства повысилось, а в 68 случаях — понизилось. Какова вероятность того, что случайные колебания давления вызовут не меньшее отклонение от 50? Можно ли считать установленным, что лекарство влияет на давление? 67. При составлении статистического отчета надо было сложить 104 чисел, каждое из ко- которых округлено с точностью до 10~4. Предполагая, что ошибки округления чисел взаимно- независимы и равномерно распределены на (—1/2 • 10~4, 1/2 • 10~4), найти пределы, в которых с вероятностью, большей 0,997, будет лежать суммарная ошибка. 68. ЭВМ имеет 24-разрядную двоичную сетку, т.е. оперирует с числами с точностью до 10~8. При вводе числа округляются, причем ошибки округления — независимы, равномерно распре- распределенные на промежутке (—1/2 • 10~8; 1/2 • 10~8) случайные величины. Находится среднее арифметическое 10000 чисел. В каких пределах лежит суммарная ошибка не менее чем в 99 слу- случаях из 100? 69. При вычислении площади плоской фигуры D методом Монте-Карло поступают следу- следующим образом: бросают п точек внутрь квадрата К, полностью содержащего фигуру, площадь которой ищут. Пусть площадь квадрата известна и равна S(K). Тогда вероятность того, что точка, равномерно распределенная на квадрате К, попадает в область D, равна
Задачи к разделу . 143 По теореме Бернулли при достаточно большом числе п вероятность Р{М € D} может быть приблизительно заменена частотой Vn = т/п, где т — число точек, попавших в область D. Тогда искомую площадь определяют по формуле S(D) = VnS(K). а) Пусть S(K) = 1 м2. Сколько точек следует использовать для нахождения площади, чтобы не менее чем в 99 случаях из 100 точность была не хуже 1 дм2? б) Пусть S(K) = 100 см2. Было брошено 1000 точек. Какую точность можно гарантировать не менее чем в 99 случаях из 100? 70. Игральную кость бросали 1000 раз. Найти пределы, в которых с вероятностью 0,99 будет лежать сумма выпавших очков. 71. Сколько раз следует бросить игральную кость, чтобы не менее чем в 9 случаях из 10 сумма выпавших очков отличалась от средней не более чем на 10? 72. Стрелок попадает при выстреле по мишени в десятку — с вероятностью 0,5; в девятку — 0,3; в восьмерку — 0,1; в семерку — 0,05; в шестерку — 0,05. Стрелок производит 100 выстрелов. Какова вероятность того, что он набрал более 920 очков?
Примеры решения задач 1. Вероятность выбора точки из дуги полуокружности радиуса 1, с центром в начале коор- координат, расположенной в правой полуплоскости, принимается пропорциональной длине проекции этой дуги на ось ОХ. Согласуется ли такое правило подсчета вероятностей с требованиями, предъявляемыми к вероятности? Решение. Нет, не согласуется. Нарушено правило сложения — для любых двух несовмест- несовместных событий А и В должно выполняться Р{А + В} = Р{А} + Р{В}. Пусть А — событие, состоящее в выборе точки из дуги, представляющей собой четверть окружности, лежащей в пер- первой четверти, В — событие, состоящее в выборе точки из симметричной ей дуги, лежащей в че- четвертой четверти. Заметим, что А + В — достоверное событие и, следовательно, Р{ А + В} = 1. В соответствии с предлагаемым определением, Р{А} — Р{В} = Р{А + В}, что возможно лишь если эти вероятности равны нулю, но последнее противоречит отмеченной выше достоверности события А + В. 2. Из множества точек, расположенных на отрезке [—2, 1] случайным образом выбирают точку и полагают вероятность выбора из подотрезка [а, C] € [-2, 1] пропорциональной /З3 - а3. Согласуется ли такой способ подсчета вероятностей с требованиями, предъявляемыми к вероят- вероятности ? Решение. Да, согласуется. Действительно, из условия задачи Р{М € [а, р}} = к- ЦЗ3 - а3). Условие нормировки вероятности позволяет определить значение коэффициента пропорцио- пропорциональности к: Р{ме [-2,1]} = *03-(-2K) = *-9=1 => *=Л. Пусть [а, /3] и [/3, 7] — смежные подпромежутки основного промежутка. Тогда 1 В то же время Р{М е [а, /3} U [/3, 7]} = Р{М е [а, 7]} = iG3 - а3). Р{М е [а, /3]} = \{C3- а3), Р{М е [А 7]> = \{1* - Л и в случае смежных промежутков правило сложения выполняется. Если же [а, /3] и [7, 6] — произвольные непересекающиеся промежутки (т. е. — несовместные события), то выполнение правила сложения следует из соотношения Р{М G [а, /3] U [/5, 7] U [7, 6]} = Р{М € [а, /3]} + Р{М € [/*, 7]} + Р{М G [7, 6]} и следующего из него равенства Р{м е [а, /з] и [7,6]} = Р{м е [а, 6)} - Р{м е [/*, 7]}. Прочие требования, предъявляемые к вероятности, легко устанавливаются. 3. Вероятность попадания точки М(р, q) в область F, лежащую в квадрате К = {{р, q): \Р\ ^ 1> \я\ ^ 0» пропорциональна площади этой области: Р(М € F) — S(F)/A. Найти вероят- вероятность того, что у уравнения рх2 — 2qx +1=0 нет действительных корней. Решение. Квадратное уравнение не имеет действительных корней, если его дискриминант отрицателен: В = q2 - р < 0.
Примеры решения задач Следовательно Р{нет корней} = P{D < 0} = Р{р > q2}, а последняя вероятность, в соответствии с усло- условием задачи, пропорциональна площади множе- множества F = {(р, q) : \р\ ^ 1, \q\ ^ 1, р > q2. Эта площадь равна (рис. 1) S(F) = и, следовательно, искомая вероятность может быть найдена из соотношения 145 Р Р{нет корней} = S(F) 1 з1 Рис.1 4. Из урны, содержащей всего 8 белых и черных шаров, извлекают одновременно два шара. Известно, что вероятность извлечения пары белых шаров в 15 раз больше вероятности извлечения пары черных. Можно ли по этим данным установить состав шаров в урне? Решение. Да, можно — в урне лежат 6 белых и 2 черных шара. Действительно, пусть в урне т белых и 8 - т черных шаров. Вероятность извлечения пары белых шаров будет равна Аналогично, вероятность извлечения пары черных Р{чч} = Из условия заключаем, что, поскольку Р{бб} = 15Р{чч}, постольку откуда получаем для т уравнение = 15 7т2 -112т + 420 = 0, имеющее пару действительных корней Ш| = 6 и Шг = 10. Второй корень не удовлетворяет условию, поскольку в урне всего 8 шаров. 5. Случайная величина ? имеет пуассоновское распределение и известно, что ее математи- математическое ожидание т и дисперсия D связаны соотношением 6 — т2 = 5 • D. Найти вероятность РЦ < 3). Решение. Известно, что математическое ожидание и дисперсия пуассоновского распреде- распределения совпадают и равны значению его параметра А. Условие задачи приводит к уравнению относительно А: А2 + 5А - 6 = 0, решениями которого являются числа Ai = 1 и Аг = —6. Последнее значение не может быть параметром пуассоновского распределения в силу положительности параметра. Таким образом, случайная величина ? имеет ряд распределения i,
146 Примеры решения задач Для искомой вероятности получаем 3) = P(t = 0) + Р(? = 1) + Р(? = 2) = е + е^ + е^ « 0,9197. 6. Плотность распределения случайной величины ? непрерывна на всей прямой и дается соот- соотношением: 0 t < 2 U ? > 3 Найти параметры а, /3, 7» функцию распределения случайной величины ?, математическое ожи- ожидание случайной величины т}} = 3? — 1, дисперсию щ = —2? + 5 и вероятность того, что ? не меньше 2,7. Решение. Непрерывность плотности на всей прямой позволяет сделать заключение о ее непрерывности в точках х = 2 и х = 3, откуда ДB) = ДC) = 0. Условие нормировки плотности дает еще одно соотношение з 2 а вместе они приводят к системе уравнений относительно неизвестных параметров а, /3, у. 4а + 2/3 + 7 = 0, 9а + 3/3 + 7 = 0, з I (at2 + /3t + у) dt = 1, 2 решение которой а = -6, C = 30, 7 = -36. Функция распределения случайной величины f дается соотношением {0, х < 2, -2f3 + 15f2-36* + 28, 2^ж^3, 1, ОЗ. Заметим, что математическое ожидание случайной величины ?, в силу симметрии плотности относительно точки t — 2,5, равно 2,5. Поэтому для математического ожидания случайной величины Т)х = 3? — 1 получаем Мщ - ЗМ? —1=3- 2,5 — 1 = 6,5. Для дисперсии случайной величины щ — -2% + 5 имеем DtJ = D(-2? + 5) = ADt, = 4 /"(« - 2,5J(-6f2 + 30* - 36) <tt =-. 2 Наконец, вероятность того, что ? не меньше 2,7 равна P{Z > 2,7} = 1 - ДB,7) = 1 - (-2*3 + 15f2 - 36* + 28I = 0,216. u=2,7 7, Функция распределения случайной величины ? непрерывна в R и дана соотношением 0, х ^ -2, аж2 + ^ж + 7, -2<ж<1, 1, х^1.
Примеры решения задач. 147 Известно, что случайная величина ? неотрицательна с вероятностью 1/9. Найти значения по- постоянных а, /? и 7, плотность распределения случайной величины ?, математическое ожидание случайной величины г) = — 2?2, и вероятность того, что эта случайная величина заключена в пре- пределах от —I до 0. Решение. Условие непрерывности функции распределения в точках х = — 2 и х = 1 дает ах2 + /Зх + 7U-2 = 4а - 2/3 + 7 = 0 и ах2 + /Зх Присоединяя к ним условие находим Плотность, очевидно, равна: 2 8 9' 7=9' :—-i^(x)=O, X<-2UX>1, 2 2 ¦^x+-, -2<x<l. Матожидание случайной величины rj = — 2?2 получим, используя теорему о математичес- математическом ожидании функции от случайной величины: Ответ на последний вопрос задачи дают следующие рассуждения Р{-1 < г) < 0} = Р{-1 < -2^2 < 0} = р{-- < - о| = 2 2 + 9Х 8\ 9J 8. Функция распределения случайной величины ? даяа соотношением X / = / ехр{ах2 + Ьх + с} dx и известно, что D? = 2, Р{? < 2} = 0,9207. Найти параметры а, 6 и с. Решение. Выделяя полный квадрат в показателе степени экспоненты, преобразуем выра- выражение для функции распределения следующим образом F((x) = I ехр{ах2 + Ьх + с] dx = expj с - —^ \ I ехр| а(х + — J i dx.
148 Примеры решения задач Поскольку Jim F<(x) = expjc- —} j exp{o(x +? постольку несобственный интеграл сходится, что возможно лишь если а < 0. Полагая о = -1 /а2, продолжим преобразования, сделав в интеграле замену переменных . Ь\2 1 / a2b\2 и2 Получим -00 откуда, учитывая, что заключаем 00 , 1 Г Г U2} ч/2тг J I 2 J /- Г b 1 Г Ь 1 1 a-Vv-expic- —1\ = 1 => ехр< с - —^ > = —¦=. I 4o2 J I 4o2 J a0r Функция распределения рассматриваемой случайной величины может быть, следовательно, представлена в виде -00 и значит, рассматриваемая случайная величина является нормальной с параметрами a2b Ь а2 DE Ь а = , DE=—. 2 2a' * 2 Из условия задачи получаем: a2 = 4 =» о = - = —. 2 4 2) = F(B) = f(L=^) = f(^P) = 0,9207, где F(x) — функция стандартного нормального распределения с параметрами @, 1). Отсюда ~ * = F~'@,9207) и 1,41 =» М$«0 =» Ь«0. v2 Для нахождения величины с используем полученное выше соотношение f Ь2 1 1 _ ехр<с *? = —^ => с = - In 2v?r и —1,266. I 4cr J а\/тг 9. Время безотказной работы некоторого узла сложного агрегата — экспоненциальная случай- случайная величина со средним М = 2. Для увеличения надежности агрегата узел дублируется — ставят параллельно несколько одинаковых, но функционирующих независимо узлов. Сколько узлов следует запараллелить, чтобы с вероятностью не меньшей чем 0,9 по крайней мере один из них не вышел из строя за 10 часов работы?
Примеры решения задач 149 Решение. Т — случайное время безотказной работы узла — имеет экспоненциальное рас- распределение. Это означает, что Р{Т < t} = FT(t) = — exp{—/i • t}, t ^ 0. Известно, что математическое ожидание экспоненциальной случайной величины есть вели- величина, обратная параметру: М = 1//л => /л = 0,5. Следовательно, вероятность отказа узла в течение 10 часов будет равна Р{Т < 10} = = 1 - ехр{-0,5 • 10} « 0,9933. Если запараллелено N идентичных узлов, то событие А = {по крайней мере один из узлов не вышел из строя за 10 часов} является противоположным событию А = {все узлы вышли из строя за 10 часов}. Поэтому Р{А} = 1 — Р{А}. Для последней вероятности (в силу независимости отказов запараллеленных узлов) получаем Р{А} = (Р{Т< 10})*. Искомое количество N может теперь быть найдено как наименьшее целое решение неравенства Р{А} = 1 - Р{А} = 1 - (Р{Т < 10})" = 1 - @,9933)* ^ 0,9 =» N ^ 343. 10. Случайное отклонение размера детали от номинального — нормальная случайная величина с параметрами т = 0, сг = 1. Годными являются те детали, для которых отклонение заключено в пределах от —\ до \ мм. Найти функцию распределения отклонений для годных изделий. Решение. Пусть f — случайное отклонение размера детали от номинального: ? = N[0,1], т) — отклонение размера годной детали от номинального: Рис.2 Для функции распределения случайной величины q получаем по определению (рис. 2) Г 0, *<-1, Fv(x) = Р{П < х} = I Р{*<*|-1<е<1}> -1<*<1, I 1, х>1. Вероятность же Р{? < х\ — 1 ^ ^ ^ 1} равна
150 Примеры решения задач в соответствии с формулой условной вероятности. Таким образом, искомая функция распреде- распределения дается соотношением ад = о, 1, где F(x) — функция стандартного нормального распределения с параметрами 0 и 1. Находя значения F(-l) = 0,1587 и F(\) = 0,8413, окончательно получаем (рис. 3) ад = о, F(x)~ 0,1587 0,6826 ' 1, х< -1, X > 1. Рис.3 11. При сложении тысячи чисел каждое из них было округлено с точностью до 10~3. Предпо- Предполагая, что ошибки округления слагаемых взаимно-независимы и равномерно распределены на про- промежутке [—1/2 • 10~3, 1/2 • 10~3], найти пределы, в которых будет лежать суммарная ошибка с надежностью, не худшей 0,997. Решение. Пусть ?,, i = 1, 2,..., 1000 — взаимно независимые случайные слагаемые, речь о которых идет в условии задачи. Задача состоит в отыскании таких значений ?\ а ?2, что PU\ < 6 + 6 + • • • + 6ооо < *2} ^ 0,997. Учитывая симметрию рассматриваемой суммы относительно нуля, можно положить —е, = е2 = е > 0. Таким образом, приходим к следующей задаче: Найти значение е такое, что P{\Zi +6 + --- + &oool<e} ?0,997. Для вычисления вероятности в левой части неравенства воспользуемся центральной предельной теоремой для одинаково распределенных слагаемых где .F(a;) — стандартная функция нормального распределения с параметрами @, 1), iV — до- достаточно большое число2*. 2) Известно, что для равномерно распределенных слагаемых указанное приближение справедливо с вы- высокой степенью точности уже при N > 12.
Примеры решения задач 151 Поскольку каждая из ?, равномерна на заданном промежутке [-1/2 • 10 3, 1/2 • 10 3],то i = Mi = 0, (b-aJ 10" 10" 12 12 ' = а = 1000 1=1 Последнее соотношение приводит к неравенству относительно ? ? \ ( ? 2F ( г—) - 1 ^ 0, Vo-VlOOO/ 997 =» f V — o-VlOOO 0,9985, что в силу монотонности функции F(x) дает <7\Л000 F~l@,9985) и 2,96 =» е ^ 2,96 10 -з '1000 и 0,027. 12. При вычислении площади плоской фигуры D методом Монте-Карло поступают следующим образом: Бросают случайно N точек внутрь квадрата К, полностью содержащего фигуру, площадь которой ищут. Вероятность того, что точка, равномерно распределенная на квадрате К, попадает в об- область D, равна и, следовательно, искомая площадь может быть найдена из соотношения S(D) = Р{М € D} • S(K). По теореме Бернулли, при достаточно большом числе N вероятность Р{М € D} может быть приблизительно заменена частотой гдет — число точек, попавших в область D. Для площади отсюда получаем приближенную формулу S(D) « SN(D) = uN • S(K). Сколько точек следует использовать для нахождения площади, чтобы не менее чем в 9 случаях из 10 точность AN = \S(D) — SN(D)\ была не хуже 1 дм2, если известно, что S(K) = 1м2? Решение. Задача сводится к определению значения N такого, что P{\S(D) - SN(D)\ < 1} 2 0,9. Заметим, что (ниже положено для сокращения записи Р{М € D} = р) P{\S(D) - SN(D)\ < 1} = Р{\р ¦ S(K) - vN • S(K)\ < 1} = = P{\P- *>n\ • S(K) <l} = P{\p-uN\< 0,01}. Теорема Бернулли для последней вероятности при больших значениях N дает оценку р{\р- от»2г(т^\-1.
152 Примеры решения задач Таким образом, определению подлежит величина N (достаточно большая, чтобы последнее приближение было справедливо), удовлетворяющая неравенству / 0,01 • y/N \ Щ - 1 ^ 0,9. В таком виде это неравенство для своего решения относительно N требует знания величины р = Р{М € D}, которая неизвестна, ибо ради ее определения и был задуман рассматриваемый эксперимент! Мы предлагаем ниже два способа оценки значения N сверхуъ\ не являющиеся, конечно, точными, однако достаточно удобные с вычислительной точки зрения. I. Первый способ связан с усилением основного неравенства в соответствии с нижеследу- нижеследующими рассуждениями: Поскольку р + A - р) = 1, то Jp A — р) ^ 0,5 и, следовательно, 0,01 • VN г— ^ 2 • 0,01 • VN. Функция F(-) монотонно возрастает, поэтому Отсюда, всякое значение N, удовлетворяющее неравенству 2FB • 0,01 • VN) - 1 ^ 0,9, подавно удовлетворяет и неравенству Предыдущее же неравенство легко разрешимо относительно N: FB-0,0\-VN)^0,95 => 2 • 0,01 • v^ ^ F~'@,95) « 1,645 1 645 => V^V ^ jToof й 82'25 ^ N- II. Второй способ связан с заменой неизвестной величины р ее оценкой v^. Основное неравенство при этом принимает вид и легко разрешается o,oi • Vn \ 0,01 • Vn ,, ' l ^ 0,95 =» ,' ^ F"'@,95) и 1,645 -vN)J у/укA - vN) 1,645 3^ To есть, мы предлагаем способы определения числа Nq , такого, что искомое N заведомо не превышает его и, следовательно, количество экспериментов большее чем iVo гарантирует нам требуемую точность.
Примеры решения задач 153 и окончательный ответ зависит от априорного (может быть и приблизительного) знания вели- величины искомой площади Так, если искомая площадь порядка половины площади квадрата, то vN « 0,5, и ответ такой же, как и выше. Если искомая площадь близка к площади квадрата, то vN и 1 и величина vN{\ — vN) мала, а вместе с ней мало и требуемое число экспериментов. Так, если, например vN m 0,9, то uN(\ - и^) и 0,09 и для N получаем г- 1,645 -хЛШ VN ^ - —— « 49,35 =» N ^ 2436. Вообще, приведенные выше выкладки показывают, что подобная процедура нахождения пло- площадей плоских фигур тем эффективнее, чем большую часть объемлющего квадрата занимает множество D или его дополнение D — К — D. 13. При проведении телепатического опыта индуктор независимо от предшествующих опы- опытов выбирает с р = 0,5 один из двух предметов и думает о нем, а реципиент угадывает, о каком предмете думает индуктор. Опыт был повторен 100 раз и при этом было получено 58 правильных ответов. Какова вероятность правильного ответа в одном опыте, в предположении, что те- телепатической связи между индуктором и реципиентом нет ? Можно ли приписать наблюденный результат случайному совпадению или он говорит о наличии телепатической связи между индук- индуктором и реципиентом? Решение. Пусть событие НА состоит в том, что индуктор выбрал предмет А, событие Нв — он выбрал предмет В. Пусть, далее, события А и В означают, что реципиент выбрал соответ- соответствующий предмет Если телепатической связи между индуктором и реципиентом нет, то в каждом из опытов Р{А\НА} = Р{А\НВ} = Р{В\НА} = Р{В\НВ} = 1. При этом вероятность Р{У} угадывания реципиентом предмета, выбранного индуктором рав- равна 0,5. Действительно, по формуле полной вероятности легко получить: Р{У) = Р{А\НА}Р{НА} + Р{В\НВ}Р{НВ} = I. Если же телепатическая связь между индуктором и реципиентом есть, то вероятности Р{А\НА} и Р{В\НВ} должны быть больше 0,5 (соответственно, Р{В\НА) и Р{А\НВ) мень- меньше 0,5), при этом и вероятность угадывания будет больше 0,5. Следовательно, если телепатической связи между индуктором и реципиентом нет, то ко- количество 5ioo правильно угаданных ответов должно быть близко к 50. Если же количество правильно угаданных ответов будет сильно отличаться от 50 (в 100 опытах), то скорее всего всего это должно означать, что телепатическая связь между индуктором и реципиентом есть Пусть 0 < а < 1 некоторая вероятность, настолько малая, что событиями, вероятность которых меньше а, можно пренебречь как практически невозможными4*. Предполагая, что телепатической связи между индуктором и реципиентом нет, определим, сколько же правильно угаданных ответов мы должны в этом случае наблюдать. И хотя логически понятно, что это может быть любое число от 0 до 100, скорее всего все-таки это будут числа, близкие к 50. Пусть 0 < к < 50 число, такое, что Р{50 - к ^ 5,оо ^ 50 + к} ^ 1 - а. Тогда почти наверняка (с вероятностью, не меньшей чем 1 - а, т.е. в A - а) • 100 % случаев) мы будем наблюдать в эксперименте не менее чем 50 — к и не более чем 50 + к правильных угадываний. Обычно в качестве а берут одно из значений 0,001, 0,005, 0,01, 0,05, 0,1.
154 Примеры решения задач Если наблюденное количество угадываний будет выходить за эти пределы, то объяснений этому может быть два: — телепатии нет, но случайность процесса угадывания привела к такому значительному отклонению от среднего ожидаемого числа угадываний; — такое значительное отклонение от среднего ожидаемого числа угадываний есть следствие наличия телепатической связи между индуктором и реципиентом. И хотя логически оба рассуждения безупречны, мы, тем не менее, выберем второе, потому что выбор первого означает, что мы признаем возможность осуществления события с вероятно- вероятностью а, а это противоречит нашим исходным посылкам! Вероятность ошибки здесь в точности равна а. Если же наблюденное количество угадываний будет входить в найденные пределы, то и этому может быть дано два различных объяснения: — телепатии нет, и именно поэтому мы получили незначительное отклонение наблюден- наблюденного числа угадываний от ожидаемого; — телепатия есть, но случайно так получилось. И здесь оба рассуждения логически безупречны, но мы выберем первое, ибо если наше предположение об отсутствии телепатии справедливо, то наблюденный результат должен на- наблюдаться почти всегда (с вероятностью 1 — а, т. е. в A — а) • 100 % случаев). Наша вероятность ошибиться будет зависеть в этом случае оттого, насколько силен предполагаемый телепатичес- телепатический эффект. Чем он сильнее, тем реже мы будем ошибаться. Таким образом, для того чтобы получить ответ на вопрос задачи, следует определить погра- пограничное значение к, описывающее возможные в подавляющем большинстве случаев в экспери- экспериментальной ситуации отклонения наблюденного числа угадываний от предполагаемого в случае отсутствия телепатической связи между индуктором и реципиентом. Для этого необходимо для заданного значения а решить относительно к неравенство Р{50 - к ^ 5,оо ^ 50 + к} ^ 1 - а. Заметим, что поскольку опыты проводятся независимо друг от друга и вероятность успеха (угадывания) в каждом опыте одна и та же, то количество успехов 5,оо является биномиальной случайной величиной с параметрами п = 100, р = 0,5 и вероятность, стоящая в левой части неравенства, равна 50+fc «=50-fc Применяя теорему Муавра—Лапласа, получаем Р{50 - к ^ 5,оо ^ 50 + к} « F[ , ) -F\ 0,5-0,5/ V ^100-0,5-0,5 ^/100-0,5-0,5/ Последнее соотношение позволяет записать основное неравенство в виде ^/lOO-0,5-0,5 и решить его относительно к
Примеры решения задач 155 Граничные значения ка, соответствующие различным значениям а, приведены ниже а 0,1 0,01 0,001 1,645 2,576 3,29 9 13 17 Таким образом, если телепатической связи между индуктором и реципиентом нет, то коли- количество случайных угадываний будет в пределах от 41 до 59 с надежностью не худшей 0,9, от 37 до 63 с надежностью не худшей 0,99 и от 33 до 67 с надежностью не худшей 0,999. Наблюденные в эксперименте 58 угадываний не дают оснований для вывода о наличии телепатической связи — результат может быть объяснен случайным совпадением.
МАТЕМАТИЧЕСКАЯ СТАТИСТИКА Приступая к изучению элементов статистики, отметим несколько особенностей в поста- постановке и решении ее задач в сравнении с задачами теоретико-вероятностными. Теория вероятностей, исходя из известных характеристик совокупности случайных величин, отвечает на вопрос о возможности осуществления того или иного события, обусловленного рассматриваемыми случайными величинами: знаем закон распределения совокупности случайных величин f = {^ ... ?„} — хотим уметь находить вероятности событий, которые этими случайными величинами определяются. В статистике мы решаем задачи, в некотором смысле обратные, а именно: наблюдая неко- некоторые события, о которых известно, что возможность их осуществления или неосуществления обусловливается комплексом случайных величин, хотим определить эти (неизвестные) случай- случайные величины, их вероятностные характеристики: знаем результаты наблюдений {конкретные значения, принятые случайной величиной) —хотим сделать какие-нибудь заключения о законе распределения (в частности о параметрах и числовых характеристиках) наблюдаемой случайной величины. Ясно, что в силу принципиальной непредсказуемости результатов наблюдения за случайной величиной, выводы, сделанные на основе результатов эксперимента, будут информативными только в том случае, когда эти наблюдения «хорошие» — т. е. те значения f, которые имеют большую вероятность, будут наблюдаться в эксперименте чаще, а имеющие меньшую вероят- вероятность — реже. Законы больших чисел утверждают, что в подавляющем большинстве экспе- экспериментов так и будет. Однако, это не гарантирует нам, что данный конкретный эксперимент окажется именно таким. Поэтому всякое статистическое заключение недостоверно: если основа заключения «хоро- «хороший» эксперимент, то заключение достаточно близко к истине, если «плохой», то ошибочно. При этом «хорош» эксперимент или «плох» определяется не нами, не нашей добросовестностью наблюдателя и тщательностью экспериментатора, а исключительно случаем — природой. Сказанное хорошо иллюстрируется следующим примером: пусть наблюдаются результа- результаты n-кратного бросания монеты. Если бросать монету достаточно долго, то частота появления, например, герба, как гласит закон больших чисел в форме Бернулли, будет близка к вероятно- вероятности. Поэтому по частоте (наблюдаемой и вычисляемой величине) можно сделать заключение о вероятности (неизвестной величине). Насколько это заключение соответствует истине? Пусть монета симметрична, т. е. Р(Г) = -Р(Р) = 0,5 (что тем не менее не препятствует асимметрии в количестве появлений герба и решки в конкретном эксперименте)! Может статься, что в серии из 100 бросаний герб появится 45 раз, а решка 55, а может статься и так, что герб появится 20 раз, а решка — 80. Ясно, что первая серия может быть признана «хорошей» с точки зрения рассматриваемой задачи, а вторая — «плохой». В любом случае мы сделаем заключение о неизвестной вероятности выпадения герба по наблюденной в эксперименте частоте и в первом случае положим Р(Г) = 0,45, а во втором — 0,2. Основанием для оптимизма является то важное обстоятельство, что «плохие» серии будут встречаться тем реже, чем длиннее серия! Значит, при достаточно длинной серии бросаний эксперимент ско- скорее будет «хорошим» чем «плохим», и определенная по результатам такого эксперимента Р(Г)
Математическая статистика 157 будет «похожа» на истинную. Достоверность статистического вывода будет определяться тем, насколько «редки» плохие эксперименты. Практика использования статистических процедур показывает, что чаще всего решения, принятые на основании подобных выводов, оказываются верными. И именно это обстоя- обстоятельство (согласованность статистических выводов с экспериментом) делает математическую статистику не бесполезной в практическом отношении наукой. В дальнейшем мы неоднократно будем употреблять термины «маленькая вероятность», «ма- «маловероятное событие» и т. п. Какая же вероятность может считаться маленькой, а какая нет? Не вдаваясь подробно в обсуждение этого вопроса, заметим только, что абсолютная величина вероятности вне связи с конкретной обстановкой не дает нам никаких сведений о ее малости или немалости. Скажем, если нам известно, что вероятность осуществления некоторого собы- события равна 0,01, то эта вероятность будет маленькой, если комплекс условий, обусловливающий рассматриваемое событие, складывается один раз за сто лет. Если же комплекс условий, при котором наблюдается рассматриваемое событие, складывается каждые пять минут, то эта же вероятность должна рассматриваться как значительная. Другими словами, под маленькой веро- вероятностью мы будем понимать вероятность такого события, которое практически не наблюдается, вне зависимости от ее численного значения.
Глава XLIII ОЦЕНКИ § 1. Выборки и выборочные характеристики Рассмотрим эксперимент П, описание которого строится при помощи случайной величины f, или, что то же самое, рассмотрим случайную величину ?, которую мы можем наблюдать в экс- эксперименте п. Это означает, что однократный эксперимент п дает нам возможность определить одно из возможных значений случайной величины f. Пусть в результате п экспериментов п получен набор значений случайной величины ? Х\, Х^..., Хп. A) Если случайная величина ? в процессе экспериментирования не менялась, если не менялись условия проведения эксперимента п и все измерения значений случайной величины ? прово- проводились независимо друг от друга, то говорят, что набор A) образует выборку объема п из распре- распределения случайной величины ?. Заметим, что если сказано: некоторая совокупность из п чисел образует выборку, то при этом предполагается следующее: а) эксперимент п может быть проведен при неизменных условиях сколько угодно раз; б) имеет место устойчивость частот, т. е. имеет смысл говорить о вероятности попадания вектора X = {Х\, Хг> • • • > %п) в некоторое наперед заданное множество А из множества всех возможных совокупностей A) (обычно А С Rn). Предположение а) означает, что, говоря о выборке объема п, мы говорим не о п конкретных числах, а о целой матрице чисел 1 jjrl 2 тг2 тг2 Хп, Х{ Хг ... л„, V* у* VJt Л | AJ . . . Лп , где элемент Х- — это значение случайной величины ?, полученное в t-м эксперименте П, который проводился в j-ft серии, I ^ j ^ к. Таким образом, можно дать следующее (уточня- (уточняющее) определение выборки: выборкой объема п из закона распределения случайной величины ? называется совокупность п штук независимых одинаково распределенных случайных величин, сов- совпадающих с ?. Пример 1. Измеряется п однотипных деталей, изготовленных на одном станке. В результате получена совокупность чисел Х\, Xi, ¦ • ¦, Хп, которые образуют выборку из распределения случайной величи- величины ? — размер изготовляемой на данном станке детали. Пример 2. Измеряется п однотипных деталей, изготовленных на различных станках. Получается со- совокупность чисел Х\, Х2, ¦•¦ ,Хп. Эти числа, вообще говоря, выборку не образуют, так как может, например, оказаться, что точность изготовления детали на различных станках различна и, следователь- следовательно, числа Xi являются реализациями различных случайных величин.
§ 1. Выборки и выборочные характеристики 159 Отметим некоторую неоднозначность термина «выборка». Иногда иод выборкой объема п понимают и конкретный набор п чисел, полученных в результате серии из п экспериментов. Но обычно бывает ясно, в каком смысле говорится о выборке. Скажем, если найдено среднее арифметическое по выборке и оно равно 5, X — У Xf — Dj n ^—^ то здесь под выборкой понимается конкретный набор чисел. Если же обсуждаются свойства величины то под выборкой понимается любой возможный набор значений случайной величи- величины ?, т. е. совокупность п штук независимых случайных величин. Первой статистической задачей, которую мы рассмотрим, будет задача нахождения функции распределения и числовых характеристик случайной величины ? по выборке, полученной в результате эксперимента. Пусть дана выборка A) из закона распределения F^(x) случайной величины ?. Требуется определить функцию распределения F^(x) случайной величины ? и ее мо- моменты. Рассмотрим дискретную случайную величину ?„, принимающую значения Х\, Xi, ... , Хп, каждое с вероятностью 1/п. Эмпирической функцией распределения случайной величины ? называется функция распределения случайной величины ?„ , ч количество Х{ таких, что Xi < х Fn (х) = . B) Эмпирическая (или выборочная) функция распределения является случайной вели- величиной, так как она определяется по выборке A) и зависит от того, какой конкретно набор чисел получен в данной серии из п экспериментов П. Оказывается, что если последовательность Х\, Хг, ... , Хп достаточно длинная, то эмпирическая функция распределения будет очень похожей на теоретическую функцию F^(x) для большин- большинства из возможных наборов чисел Х\, ЛГг, ... , Хп. Точнее, имеет место Теорема (Гливенко—Кантелли). Пусть F^(x) — теоретическая функция распределения слу- случайной величины ?, a Fn(x) — эмпирическая. Тогда для произвольного значения е > О lim {\Fn(x) - Ft(x)\ > е} = 0. n-»oo Фиксируем некоторое число х и рассмотрим случайные величины Заметим, что ряд распределения случайных величин ?,• имеет вид
160 _ . Глава XLIII. Оценки Все ?, — одинаково распределенные случайные величины с указанным рядом распре- распределения и конечным математическим ожиданием Щг{х) = РЦг = 0} • 0 + Р{& = \}\= Ц(Х). Применяя к последовательности случайных величин ?(х) закон больших чисел в форме Хинчина, получаем п->оо п _ Щ > ) откуда следует утверждение теоремы. > Теорема позволяет сделать вывод: эмпирическая функция распределения, постро- построенная по выборке объема п, тем более похожа на F((x), чем больше п — объем выборки. Этот вывод не является достоверным, а, как утверждает теорема, носит вероят- вероятностный характер — вероятность отклонений F^(x) от Fn(x) при п —»• оо очень ма- мала — как бы ни была велика выборка, всегда существует возможность получить Fn(x), значительно отличающуюся от F{(x). Однако при достаточно больших п этой воз- возможностью можно пренебречь. Обратимся к поясняющему примеру. Пример 1. Рассмотрим массовое производство некоторых однотипных изделий, изготавливаемых в не- неизменных условиях. Пусть случайная величина ? принимает значение 1, если изготовленное изделий доброкачественно, и 0 в противном случае. Отобрано п изделий и среди них оказалось п\ дефектных. Оценить функцию распределения случайной величины ?. < Случайная величина ? дискретна и задача оценки ее функции распределения есть попросту за- задача оценки вероятности Р{? = 0}, т. е. вероятности получить дефектное изделие. Теорема Гливенко— Кантелли в этом случае говорит, что оценкой вероятности Р{? = 0} может служить частота появления дефектных изделий в рассматриваемой выборке {0, х < 0, ^-, (Кх<1, 1, О1. Совершенно ясно, что если нам попалась «хорошая» выборка (которая содержит такой же процент бра- брака, как и вся контролируемая партия), то заменяя неизвестную вероятность Р{? = 0} частотой njn, мы ошибемся мало. Если получена «плохая» выборка, то при подобной замене можно допустить ошиб- ошибку. Однако «плохие» выборки будут попадаться тем реже, чем больше объем рассматриваемой выборки и, следовательно, ошибаться мы также будем редко. Пусть п — 10, щ = 2 и истинная вероятность Р{? = 0} = 0,4 Мы же, изучая нашу выборку, положим Р{? = 0} = п\/п — 0,2. Вероятность встретить выборку, давшую основание для подобной оценки, будет P{SlQ = 2} = С?о(О,4J(О,6)8 и 0,121, т.е. примерно 12 выборок из 100 в данной ситуации будут плохими Если же заключение о том, что Р = 0,2, мы сделали по выборке п = 25, п\ = 5, то вероятность встретить плохую выборку №25 = 5} » 0,002. Для выборки п = 100, П) = 20 эта вероятность P{Sioo = 20} » 0,00002, т. е. лишь в двух случаях из 100 000 мы получаем в эксперименте выборку, дающую основание для ложной оценки искомой вероятности. > Поскольку вся информация о случайной величине ? может быть получена при изучении ее функции распределения, а функции распределения случайных величин ? и &, оказались похожи, то следует ожидать, что аналогичная картина будет иметь ме- место и для прочих характеристик случайной величины ?. Таким образом, наблюдаемая в эксперименте случайная величина ?„ служит своего рода «тенью» изучаемой случай- случайной величины ?. В дальнейшем мы будем называть ее эмпирическим, или выборочным, аналогом случайной величины ?, а все характеристики величины ?„ будем именовать
§ 1. Выборки и выборочные характеристики 161 эмпирическими, или выборочными, характеристиками случайной величины ?. Так функ- функция распределения случайной величины ?„ называется эмпирической (выборочной) функцией распределения случайной величины ?, математическое ожидание ?п — эм- эмпирическим математическим ожиданием ?,дисперсия ?„ — эмпирической дисперси- дисперсией ? и вообще: эмпирическими (выборочными) моментами случайной величины ? будем называть соответственно моменты случайной величины ?п. Эмпирические моменты будем обозначать той же буквой, что и соответствующие теоретические с добавлением вверху звездочки. Тогда эмпирические начальные мо- моменты случайной величины ? определяются формулой 1=и((шу = -}2Л, C) а эмпирические центральные моменты — * = МЦ x)k=l ?(X x)k a*k = МЦп ~x)k=l- ?(X, - x)k. D) Для первого эмпирического начального момента (среднего значения) обычно исполь- используется обозначение а для второго эмпирического центрального момента и среднеквадратичного отклоне- отклонения обычно используют обозначения G) Ими мы и будем пользоваться в дальнейшем. Имеют место следующие утверждения. Теорема 1. Если п достаточно велико, то начальные эмпирические моменты мало отли- отличаются от соответствующих теоретических, точнее lim P{\mk-m*k\ > e} =0 Ve>0. П—»OO ¦4 Пусть к — фиксировано. Рассмотрим последовательность случайных величин ?i = Xj, & = Х2, ... , ?„ = Хп. Поскольку все ?, — одинаковые независимые случайные величины, совпадающие со случайной величиной ?*, то M?i — М?к = тк, i — 1,2,... , п. Отсюда и из соотношения C) следует равенство п
162 Глава XLJII. Оценки Применяя к последовательности случайных величин ?, закон больших чисел в форме Хинчина, получаем, что P{\ml-mk\ п = 0, что и требовалось. > В теореме, конечно, предполагается, что соответствующие теоретические моменты существуют. Столь же легко может быть доказана и теорема о близости эмпирических централь- центральных моментов к соответствующим теоретическим. Теорема 2. Если п достаточно велико, то центральные эмпирические моменты мало отличаются от соответствующих теоретических, точнее lim Р{\ак-ак\>е} = 0 Ve>0. п—*оо Пусть теперь в эксперименте наблюдается несколько случайных величин (случай- (случайный вектор) ? = {?i, ?2, ••-, 6}• Выборкой объема п из закона распределения случайного вектора f будем называть п реализаций (измерений) случайной величины ? полученных в п независимых экспериментах. Как и для случая одномерной случайной величины, выборка — это п штук неза- независимых одинаково распределенных векторов. Отметим, что реализацией случайного вектора будет упорядоченный набор I чисел — А xj i I Л1 ) > , j = 1,2,... ,n. Известно, что важной характеристикой векторной случайной величины является ее ковариационная матрица К[f] = элементы которой — ковариации компонент f,• и ?,-. Ее эмпирический аналог (т. е. ковариационная матрица выборочного вектора fn, принимающего значение Х; с ве- вероятностью 1/п) называется эмпирической ковариационной матрицей вектора f. Как следует из вышеизложенного, ее компоненты могут быть найдены по форму- формулам $=\ г=1 г=1 s=\ s=l s=\
§2. Параметры распределений. Точечное оценивание 163 В частности, из соотношения (8) с учетом выражения для эмпирического среднеква- среднеквадратичного отклонения G) получаем соотношение для расчета эмпирического коэф- коэффициента корреляции пары случайных величин ? и rj (9) Gt п0Г„ »/ s=\ s=l здесь (Xs, У8), s = 1,2, ... , n, — выборка из двумерного распределения случайных ве- величин (?, tj) , ж, I/ — эмпирические средние случайных величин (и?/ соответственно. Соотношение (9) может быть переписано в эквивалентной форме Е X,Y8 - ху тп = "' , (Ю) Как и выше, можно доказать теоремы о близости в подавляющем большинстве случаев эмпирических характеристик многомерной случайной величины к соответствующим характеристикам вектора ?. Эти теоремы позволяют высказать более или менее прав- правдоподобное суждение о числовых характеристиках случайной величины ? по выбор- выборке A). Конечно, заменяя истинные числовых характеристики эмпирическими, можно ошибиться. Однако, как и в случае с функцией распределения, мы хотим надеяться, что «плохие» выборки будут встречаться редко и что в подавляющем большинстве слу- случаев эмпирические моменты будут мало отличаться от теоретических. Хотелось бы научиться оценивать достоверность наших суждений о рассмотренных выше харак- характеристиках случайной величины ? поточнее. Этим мы займемся позднее, а сейчас попробуем несколько расширить наши представления о случайной величине ?, соста- составленные по выборке. §2. Параметры распределений. Точечное оценивание Пусть в эксперименте П изучается случайная величина ? = {?],•••,&} с законом распределения Ф^(х; а) — Ф?,&..&(Ж1 > хъ • • • > хк', «i, «2> • • • , аг), зависящим от не- некоторых параметров а}, а2) • • • , аг • Например, если случайная величина ? — нормальная, то ее закон распределения зависит от двух параметров — m и а, если ? — равномерная на промежутке [а, Ь], то параметрами закона распределения являются концы а и Ь, и т. д. Пусть C — один из подобных параметров. Попробуем по выборке, полученной в результате эксперимента, высказать некоторое суждение о возможных значениях параметра/?. Для этого сначала следует указать способ вычисления величины /? по выборке Х,,Х2,...,Х1|, A1) т. е. функцию Ь от п векторных переменных такую, что /J«b(X,,X2,...,XII), A2) а потом пояснить, как в соотношении A2) понимать знак приближенного равенства. 6*
164 Глава XLJII. Оценки Пусть, к примеру, /3 — это математическое ожидание случайной величины ?. То- Тогда, как показано в предыдущем параграфе, в качестве функции b можно взять среднее арифметическое наблюденных значений и при этом понимать равенство в соотноше- соотношении A2) как «равенство в большинстве случаев», т. е. вероятность больших отличий левой части от правой мала. Формализуя вышеизложенное, скажем, что оценкой неизвестного параметра /3 бу- будем называть функцию Ь(Х\, Х2,... , Х„) от наблюденных значений такую, что b и р. Ясно, что нас будут интересовать не любые оценки параметра /3, а только те, кото- которые в некотором смысле на него похожи. Критериев «похожести», т. е. интерпретаций приближенного равенства в соотношении A2), существует много. Мы рассмотрим здесь наиболее употребительные. Оценка b(Xj, Х2,... > Х„) называется состоятельной оценкой неизвестного пара- параметра /?, если вероятность отклонений /3 от &(Х(, Х2, ... , Хп) становится малой с ро- ростом п lim Р{\р - Ь(Хи Х2,... , Хп)| > е} = 0. A3) п—*оо В соответствии с этим определением (как следует из теорем 1 и 2) эмпиричес- эмпирические моменты являются состоятельными оценками соответствующих теоретических моментов. Состоятельность — это «похожесть в большинстве случаев». Оценка &(ХЬ ... , Х„) называется несмещенной оценкой параметра /3, если М&(ХьХ2,...,Хп) = /5. A4) Несмещенность оценки есть ее похожесть на оцениваемый параметр «в среднем*, т. е., если мы обладаем несколькими выборками XI vl А Xj X2 ... Xn и По каждой из них найдем оценку б(Х', Х2>... , XJ,), то эти числа будут одинаково часто как превышать истинное значение оцениваемого параметра /3, так и не превосхо- превосходить его, т. е. отклонение оценки от оцениваемого параметра в случае несмещенности оценки носит несистематический характер. Пришр 1. Эмпирическая оценка математического ожидания является несмещенной оценкой ¦4 Мы хотим доказать, что М х = Mi. Рассмотрим Vя ,=i 7 я ,=i Так как Х% — независимые в совокупности случайные величины, каждая из которых совпадает с i, то МХХ = Mi и мы получаем 1 « = - у Mi = м^ > ".=. 2. Эмпирическая оценка дисперсии t=i не обладает свойством несмещенности. ¦4 Действительно,
§ 2. Параметры распределений. Точечное оценивание Поэтому ) я( ^ ? ~ Несмещенную оценку дисперсии можно легко построить. Как показано выше, Поэтому и, следовательно, исправленная величина s2, определяемая соотношением =\2 п- М= есть несмещенная оценка дисперсии. С практической точки зрения свойство состоятельности очень важно — его нали- наличие позволяет надеяться, что с увеличением объема выборки точность оценивания бу- будет расти (конечно, только в подавляющем большинстве случаев). Несмещенность же играет менее важную роль. Если оценка является несмещенной, то это свидетель- свидетельствует об отсутствии систематической ошибки в оценивании неизвестного параметра. Указанное обстоятельство становится важным в случае малых выборок, когда оценки могут быть далеки от оцениваемого параметра и наличие систематической погрешно- погрешности оценивания только ухудшает точность оценивания. В случае больших выборок смещение оценки (при наличии состоятельности!) на точность оценивания суще- существенного влияния не оказывает. Важно также понимать, что вышеизложенное имеет смысл только если выполне- выполнены условия применимости законов больших чисел, на выводах из которых базируются наши заключения. Важнейшим из подобных условий является существование мате- математического ожидания исследуемой случайной величины ?. Рассмотрим некоторые методы нахождения оценок неизвестных параметров рас- распределения, сделав дополнительное предположение, а именно: пусть вид функции распределения случайной величины ? известен Итак, в результате эксперимента получена выборка объема п. Требуется по вы- выборке найти оценки неизвестных параметров /3\ > /?2, • ¦ • > А»- 2.1. Метод моментов Идея метода моментов состоит в приравнивании эмпирических моментов, найден- найденных по выборке, соответствующим теоретическим, которые зависят от неизвестных параметров C\, Рг,..., /?*:
166 Глава XUII. Оценки . 1 A5) z2 i l (P* > /2i • • • i Pk), _ 1 п Система A5) позволяет выразить неизвестные параметры /?j, /%, ...,/?* через выбо- выборочные значения ЛГ], ЛГ2, ... , Х„: /3] =Ь](Х], ... , Хп), fa = Ь2(Х], ... , Хп), ... , Pk = bk(X], ... , Х„). Функции bi(X\, ... , Хп) и считаются оценками параметров /?,-. Близость оценок, найденных по методу моментов, к истинным значениям оцениваемых параметров описывается следующей теоремой. Теорема. Пусть решение системы A5) существует, причем функции bj(Xu ... , Хп) = bj(m*t ... t ml) непрерывны в точке т = (mj, тп.2, ... , mjt). Тогда оценки, полученные по методу момен- моментов, состоятельны. Оценки, полученные по методу моментов, необязательно являются несмещенны- несмещенными. Однако, если наложить на функции bj(m\, ..., m*) некоторые дополнительные ограничения, то можно получить утверждение, касающееся асимптотической несме- несмещенности оценок, найденных методом моментов Mb >j(Xu ... , Хп) = Pj + О(-\ j = 1, ... , fc, A6) т. е. смещение оценки с ростом объема выборки убывает. На практике метод моментов приводит к относительно простым вычислениям и, как следует из теоремы, позволяет находить состоятельные оценки параметров. Смещение этих оценок для больших выборок несущественно A6). Кроме того, во всех практически важных случаях это смещение легко устраняется с помощью простых поправок. Пример 1. Известно, что случайная величина ? равномерно распределена на отрезке [а,/?]. Получена выборка объема п из распределения случайной величины ?. Оценить величины аи/?. ¦< Произведем оценку неизвестных параметров аи/J, пользуясь методом моментов. Имеем Р ' <* + р 1 — а а ' Р р-а и Система A5) в данном случае принимает вид
§2. Параметры распределений. Точечное оценивание 167 Решая ее относительно а и /3, получаем /3*=x- a* = x - VbS. Учитывая, что а < /З, заключаем, что наша система всегда имеет решение и притом единственное. Полученные оценки состоятельны, однако свойством несмещенности не обладают. > Пример 2. Оценить по выборке параметр ц экспоненциально распределенной случайной величины (. ¦4 Функция распределения случайной величины ? имеет вид 1-е , х j? и, *«¦< I?Л Следовательно, Mi = / це'^х dx = = / ne~'ixxdx= -. J о Система A5) сводится к одному уравнению откуда li* = Х-. A7) Полученная оценка состоятельна. Что касается несмещенности, то поскольку Х{ экспоненциально рас- распределены, то пх = Y, х% имеет гамма-распределение с плотностью ^ р-1" t> п /»*@Ч ("-О! ' О, t < О, и поэтому о Следовательно, оценка A7) свойством несмещенности не обладает, так как A8) Однако, используя соотношение A8), легко можно получить несмещенную оценку параметра /4 t п - 1 t п - 1 п 2.2. Метод максимального правдоподобия Пусть ? — непрерывная случайная величина с плотностью Д(*) = Д(*; А,/%,..., АО- вид плотности известен, но неизвестны значения параметров /3,-. Функцией правдоподобия называется функция L(XU ЛГ2)... , ЛГП; /?,, /%,... (здесь ЛГ], ... , ЛГ„ — выборка объема п из распределения случайной величины ?). Легко видеть, что функции правдоподобия мохсно придать вероятностный смысл, а именно: рассмотрим случайный вектор Н = {?i,... , ?„}, компоненты которого независимые в совокупности одинаково распределенные случайные величины с зако- законом Д(х). Тогда элемент вероятности вектора Н имеет вид AV = {Е: Xi<:ti< Xi + AX{} i = 1, 2, ... , n,
Глава XUII. Оценки т. е. функция правдоподобия связана с вероятностью получения фиксированной вы- выборки в последовательности экспериментов П. Основная идея метода правдоподобия состоит в том, что в качестве оценок па- параметров /3,- предлагается взять такие значения /3j, которые доставляют максимум функции правдоподобия при данной фиксированной выборке, т. е. предлагается счи- считать выборку, полученную в эксперименте, наиболее вероятной. Нахождение оценок параметров /3,- сводится к решению системы к уравнений (к — число неизвестных параметров): dL{Xu... , Х„; /Зь... ,/3*) . - . . — =0; 1=1,2, .... Л. A9) Поскольку функция log L имеет максимум в той же точке, что и функция правдопо- правдоподобия, то часто систему уравнений правдоподобия A9) записывают в виде d\ogL ^ ,..., A) ( . В качестве оценок неизвестных параметров /3,- следует брать решения системы A9) или B0), действительно зависящие от выборки и не являющиеся постоянными. В случае, когда ? дискретна с рядом распределения Р{? = X,} = Р{Х;; /Зь ..., рк}, • = 1,... , п, функцией правдоподобия называют функцию п L(Xlt...tXn; /?,,...,А) = ПР^ = Х«-» Д> •••.&> B1) и оценки ищут как решения системы дЬ{Хи... ,Хп; ри... , или эквивалентной ей d\ogL ^ =0, г= 1,2, ... , к, B2) • К } Можно показать, что оценки максимального правдоподобия обладают свойством состоятельности. Следует отметить, что метод максимального правдоподобия при- приводит к более сложным вычислениям, нежели метод моментов, но теоретически он более эффективен, так как оценки максимального правдоподобия меньше уклоняются от истинных значений оцениваемых параметров, чем оценки, полученные по методу моментов. Для наиболее часто встречающихся в приложениях распределений оценки пара- параметров, полученные по методу моментов и по методу максимального правдоподобия, в большинстве случаев совпадают. Пршир 1. Отклонение ( размера детали от номинала является нормально распределенной случайной величиной. Требуется по выборке определить систематическую ошибку и дисперсию отклонения. ¦4 По условию { — нормально распределенная случайная величина с математическим ожиданием (систематическая ошибка) и дисперсией, подлежащими оценке по выборке объема о: X [,..., Хп. В этом случае Функция правдоподобия 1
§3. Интервальное оценивание Система A9) имеет вид Отсюда, исключая решения, не зависящие от X,, получаем ?l, () «=i 1=1 т е. оценки максимального правдоподобия в этом случае совпадают с уже известными нам эмпириче- эмпирическими средним и дисперсией > Пример 2. Оценить по выборке параметр ft экспоненциально распределенной случайной величины. ¦4 Функция правдоподобия имеет вид Уравнение правдоподобия приводит нас к решению *_ п _ * совпадающему с оценкой этого же параметра, полученной по методу моментов, см. A7). > Пример 3. Пользуясь методом максимального правдоподобия, оценить вероятность появления герба, если при десяти бросаниях монеты герб появился 8 раз. ¦4 Пусть подлежащая оценке вероятность равна р. Рассмотрим случайную величину ( с рядом распределения Функция правдоподобия B1) имеет вид L(Xu...1Xn;p)=pi(l-p)\ так как Pit - х ¦ п\ - / Л всли Xl = °' Уравнение правдоподобия 8р7A-рJ-2р8A-р) = 0 дает в качестве оценки неизвестной вероятности р частоту появления герба в эксперименте Заканчивая обсуждение методов нахождения оценок, подчеркнем, что, даже имея очень большой объем экспериментальных данных, мы все равно не можем указать точ- точного значения оцениваемого параметра, более того, как уже неоднократно отмечалось, получаемые нами оценки близки к истинным значениям оцениваемых параметров только «в среднем» или «в большинстве случаев». Поэтому важной статистической задачей, которую мы рассмотрим далее, является задача определения точности и До- Достоверности проводимого нами оценивания. § 3. Интервальное оценивание Результаты предыдущего параграфа позволяют по выборке определить оценку неиз- неизвестного параметра /3-распределения i^(x). Эти оценки носят точечный характер — они указывают число, в некотором смысле похожее на оцениваемый параметр, другими
170 Глава XUIL Оценки словами, они позволяют определить точку /3*, находящуюся в большей или меньшей близости к истинному значению оцениваемого параметра (рис. 1). у, у2 Пусть нам удалось построить две функции 1 1 1 7i (<*! i • • • , %п) и 72рч, • • • , Хп), удовлетво- о о* ряющие условию Рис. 1 7i (Хи • • • ) Хп) ^ ъ{Х\, • • • , Хп) для любых значений ЛГь ЛГ2, ... , Хп. Рассмотрим на числовой оси промежуток Gь 72)- Его концы 7i и 72 зависят от выборочных значений и, следовательно, явля- являются случайными величинами. Вследствие этого промежуток G1, 72) также является случайным в том смысле, что его длина и положение на числовой прямой зависят от выборки ЛГ], ЛГ2, ... , Хп. Истинное значение параметра /3 — неслучайное число и его положение на числовой оси фиксировано. Поэтому для некоторых выборок случайный интервал G1, 72) будет накрывать число /3, а для некоторых не будет. Если нам удается подобрать функции 71 {Х\, ... , Хп) и 72 Рч > • • • > Хп) так, что случайный интервал G1, 72) «часто» накрывает истинное значение неизвестного параметра /3, то мы можем в качестве оценки этого параметра взять любую точку интервала G1, 72) ¦ При этом можно утверждать, что «довольно часто» наша оценка отличается от оцени- оцениваемого параметра не более чем на длину интервала G1, 72) • Введем новое понятие, формализующее выше приведенные рассуждения. Доверительным интервалом для параметра /3 называется случайный интервал Gi) 72) такой, что ^{Gь72)Э/3}^«. B4) Число к при этом называется уровнем доверия или доверительной вероятностью. Выбор числа к — уровня доверия — зависит от того, что мы понимаем под слова- словами «довольно часто», и от того, какой точности в определении параметра /3 мы хотим достичь. Поскольку добиться абсолютной достоверности (чтобы ошибка не превы- превышала длины интервала всегда) мы не можем]\ то поступимся достоверностью, чтобы получить нетривиальную информацию о точности. Выбирая к очень маленьким, мы, конечно, можем добиться того, чтобы длина интервала G1, 72) была сколь угодно малой, однако в этом случае (из-за малости к и неравенства B4)) мы крайне редко будем получать доверительный интервал, накрывающий истинное значение параме- параметра /3, т. е. найденные нами по конкретным выборкам интервалы будут ненадежны. Выбор же к очень близкого к единице, неоправданно расширяет границы доверитель- доверительного интервала и тем самым понижает точность определения параметра /3. Поскольку чаще всего нас интересует вопрос, как сильно мы можем ошибиться, заменяя истин- истинное значение параметра /3 его оценкой /3*, то обычно доверительную вероятность к выбирают настолько близкой к единице, чтобы с событиями, вероятность которых меньше, чем 1 - а, можно было практически не считаться. Соответствующий этой вероятности доверительный интервал дает надежную (с вероятностью к) оценку отли- отличия приближенного значения /3* от неизвестного точного /3. На практике в качестве к в зависимости от конкретной ситуации выбирают одно из чисел —0,9; 0,95; 0,99; 0,999. Возвращаясь к задаче определения точности и достоверности оценки /3* неизвест- неизвестного параметра /3, отметим, что определить точность оценки — значит указать, как велика может быть разница /3 - /3*. B5) ') Из неравенства B4) следует, что при этом G1, 72) расползается на всю числовую прямую и мы получаем тривиальный результат: ошибка 72 — 7i B распределении параметра может быть любой.
§3. Интервальное оценивание 171 Но в силу того, что C* — случайная величина, разность B5) — также случайная ве- величина и может принимать любые значения, причем одни чаще, другие реже. Поэтому тесно связанной с определением точности является задача определения достоверности оценки, т. е. указания той доли случаев, когда величина C — {3* не превосходит не- некоторой величины е. Суммируя, получаем, что определить точность и достоверность оценки C* — значит указать числа ?\ > e-i и х такие, что Р{е{ ^ /3 - C* ^ е2} > х, B6) т. е. задача определения точности и достоверности оценки /3* — это задача построения доверительного интервала для параметра /?. Заметим, что при ?\ = —?j доверительный интервал оказывается симметричным относительно точечной оценки C*. 3.1. Точность и надежность оценивания математического ожидания нормальной случайной величины Пусть ? — нормальная случайная величина с параметрами (т, а), х — эмпирическая оценка параметра т = М?. Существенным для дальнейшего является вопрос о том, известна или нет дисперсия. 1. Пусть а известна. В силу нормальности ? отклонение оценки х от М? также является нормальной случайной величиной с параметрами П П П При —?i = ?2 = ? > 0 соотношение B6) примет вид « < Р№ -Mt\<t} = ^L[ a"'2"'2'2 dt = 2Е(Щ - 1. B7) (tV2tt J ?\ (Т / -e x 1 /* 2 Здесь F(x) = —7= / e~x ' dx — функция Лапласа. Таким образом, задача свелась v2tt J -00 к решению уравнения относительно ? при заданном уровне доверия х. Обозначим решение уравнения 2F(x) -\=x через хн. Тогда B9) — решение уравнения B8). Искомый доверительный интервал — х-хх-= ^ М? ^ х + Х)(-^=, C0) так что в х • 100 % случаев неизвестное значение М? накрывается интервалом C0), т. е. точность в определении М? не превышает по модулю величины хха/у/п в к • 100 % случаев. Правда, в A - х) • 100 % случаев найденное нами среднее арифметическое х
Глава XLJII. Оценки может отличаться от М? на сколь угодно большую величину, однако за счет того, что события с вероятностью 1 - к практически невозможны, этим можно пренебречь. Отметим, что соотношение C0) — точное, т. е. справедливо для любых объемов экспериментальных данных, в том числе и для малых выборок. 2. Пусть теперь а неизвестна. В этом случае рассуждения предыдущего пункта мы применить не можем, так как в соотношении B7) значение параметра а нам неизвестно, и мы получим одно уравнение с двумя неизвестными е и а. Рассмотрим величину х-М? t = Здесь s — исправленная оценка среднеквадратичного отклонения C1) C2) Отметим следующее, важное для дальнейшего, обстоятельство: случайные величины х и 82 — статистически независимы. •4 Действительно, случайный вектор Х\ - X хп-х имеет нормальное распределение, при этом = М(Х; — т) — J п = M(Xj - т) - Те- V у. М [{xj -х)(х- - -m)- M(X - тJ = - - а2 = n n Откуда и следует искомое, так как независимость случайного вектора X и разно- разности х - m влечет независимость случайных величин, являющихся их непрерывными функциями. > Для величины t, задаваемой соотношением C1), докажем теперь следующую тео- теорему. Теорема. Случайная величина подчиняется распределению Стьюдента сп - 1 степенью свободы.
§3. Интервальное оценивание Щ -4 Заметим, что n . n - *>2 = ^т ?« - i=\ (X- Поэтому Vn - ^ ' П .. (зз) В соотношении C3) через Yi обозначены независимые нормально распределенные случайные величины с параметрами МYi — 0 и DYi = 1 Рассмотрим в п-мерном координатном пространстве R" гиперплоскость *, зада- задаваемую уравнением У| V i i V Л tiA\ I —I— Y i —I— —I— ж« ^^ II I Л41 Сделаем поворот осей в Шп таким образом, чтобы одна из новых координатных осей (для определенности последняя) была бы ортогональна плоскости ж. При этом Коор"-' динаты Yt перейдут в Zi и п п Е ^2=Е * C5) t=i «=1 Поскольку У;- — независимые нормально распределенные случайные величины с па- параметрами 0 и 1, то и Zi также будут независимыми нормально распределенными случайными величинами с параметрами 0 и 1. Из условия ортогональности одной из новых осей плоскости тг вытекает, что соответствующая ей новая координата Zn будет иметь вид 1 п ~Jn ^ ' ' и z t = -==*= Vn~=~\, C7) /n-l так как 1=1 / «=I Учитывая независимость Zj, заключаем, что t имеет распределение Стьюдента с п - 1 степенью свободы. >
174 Глава XLIII. Оценки Возвратимся к определению доверительного интервала для М?, Здесь Sn-\(t) — функция распределения Стьюдента. Последнее уравнение, используя свойство функции 5n_i перепишем в виде \ & / Задавая уровень доверия к и обозначая решение уравнения через tx, получаем доверительные границы Заметим, что доверительные границы для математического ожидания в случае известной дисперсии а1 имеют такой же вид. В соотношении C8) вместо среднеква- дратического отклонения а стоит оценка C2) среднеквадратического отклонения s, вместо хх — решения уравнения 2F(x) — 1 = к — стоит tx — решение уравнения 2Sn-\(t) — 1 = к. Доверительные границы C8), вообще говоря, шире доверитель- доверительных границ C0), что объясняется большей долей неопределенности при нахождении х по выборке в случае, когда дисперсия неизвестна, по сравнению со случаем, когда дисперсия известна. Как и в случае известной а, интервал C8) — точный и может быть использован для оценивания математического ожидания по выборкам любого объема, в том числе и по малым выборкам. 3.2. Точность и надежность оценивания дисперсии нормальной случайной величины Пусть ? — нормальная случайная величина с параметрами (т, а), которые оценива- оцениваются по выборке объема п т«^-^4 <г2 « s2 = -Ц- ^2(Х{ - хJ. C9) П ¦*—"* 71—1 ^—J 1=1 1=1 Величина Zj = ffJn_l Vn нормальна с параметрами @,1). Действительно, Zj является линейной комбинацией нормальных величин Xs, s — 1, ... , п, 4f J V^la \ n 3 n t=l ' 1 с параметрами MXS = m, DXS = a1, а потому Zj — нормальна. Далее, очевидно, MZj = 0 и DZj = in - \)(Tl IV n I nL t—' \ n n
§3. Интервальное оценивание. 175 Исправленная оценка дисперсии s представляется в виде 2 « S2 ~ — Можно установить, что величина ~ Y2 ZJ имеет распределение %2 с п — 1 степе- i=i нью свободы, т. е. распределена как сумма квадратов п — 1 независимых нормальных @,1) случайных величин, что дает возможность вычислять вероятности Р< -^(п- D0) Зададим некоторую вероятность к, близкую к единице, и найдем числа 7пр ^ Тлев такие, что х (рис. 2). При этом для неизвестной дисперсии а2 получим (П - \)S2 2 (П - 1)в2 Тпр Тлев Числа 7пр и 7лев легко определяются как решения уравнений „ 1-к , v 1+к D1) Теперь в качестве точечной оценки неизвестной дисперсии можно взять любое чи- число а* из промежутка D1) и с надежностью к точность такого оценивания будет не хуже, чем (n-l)s2 2 (n-l)s2 f\\ min< Тпр Тлев Для симметричной оценки, ТпрТлев * / 1 \ 2 Тпр Тлев ТОЧНОСТЬ ? = -(П - 1)в — . ¦^ ТпрТлев Отметим, что если в качестве точечной оценки взять исправленную оценку диспер- дисперсии s2, то интервал D1) относительно этой оценки симметричным не будет. 3.3. Точность и надежность оценивания для негауссовских распределений Результаты предыдущего параграфа позволяют найти точные доверительные интер- интервалы для математического ожидания и дисперсии нормальной случайной величины, при условии ее нормальности. Если же случайная величина ? имеет произвольную
176 Глава XUII. Оценки функцию распределения, то это удается уже не всегда. Однако, если объем выборки до- достаточно велик, то можно указать приближенные доверительные интервалы границы для моментов случайной величины ?, используя следующее утверждение. Теорема. Пусть 8 п — эмпирическая оценка момента 8-го порядка случайной величины ?, существование которого предполагается. Тогда случайная величина m*s — ms ,- Vn = —7===-Vn распределена асимптотически нормально с параметрами 0 и I, lim P{qn < х} = F(x). D3) п—»оо Отсюда следует, что Задавая уровень доверия к и решая уравнение 2F(x) - 1 = к, получаем значение хн такое, что D4) с вероятностью к. И, если известна D?s, то соотношение D4) дает искомый довери- доверительный интервал. Замечание. Нормальное распределение дает плохое приближение к истинному распределению сум- суммы ii в области вероятностей очень малых или очень близких к единице. Поэтому доверительные интервалы D4) очень грубы уже при р > 0,999. В некоторых случаях удается оценить относительную ошибку, которая получается при замене истинного распределения суммы большого числа случайных величин нормальным распределением, и построить более точные интервалы. Если же D?8 неизвестна, то обычно ее заменяют оценкой ВГ = mL - КJ, еще более снижая точность доверительного интервала D4). Пример 1. Построить доверительный интервал для математического ожидания нормальной случайной величины, если по выборке объема п = 21 построены оценки х = 5 и *2 = 1,21. Уровень доверия х = 0,999. 4 Точный доверительный интервал имеет вид где tx — решение уравнения 25п_,@- 1=0,999. В нашем случае п - 1 = 20, х = 0,999. По таблице распределения Стьюдента (см. ниже) определяем tx = 3,85. Искомый доверительный интервал имеет границы 4,053 ^ М? ^ 5,947.
§ 3. Интервальное оценивание. 177 Распределение Стыодента п-\ 1 2 3 4 5 6 7 8 9 10 12 14 16 18 20 22 24 26 28 30 00 0,90 6,314 2,920 2,353 2,132 2,015 1,943 1,895 1,860 1,833 1,812 1,782 1,761 1,746 1,734 ,725 1,717 ,711 ,706 ,701 1,697 1,645 0,95 12,706 4,303 3,182 2,776 2,571 2,447 2,365 2,306 2,262 2,228 2,179 2,145 2,120 2,101 2,086 2,074 2,064 2,056 2,048 2,042 1,960 0,975 25,452 6,205 4,177 3,495 3,163 2,969 2,841 2,752 2,685 2,634 2,560 2,510 2,473 2,445 2,423 2,405 2,391 2,379 2,369 2,360 2,241 0,980 31,821 6,965 4,541 3,747 3,365 3,143 2,998 2,896 2,821 2,764 2,681 2,624 2,583 2,552 2,528 2,508 2,492 2,479 2,467 2,457 2,326 0,990 63,657 9,925 5,841 4,604 4,032 3,707 3,499 3,355 3,250 3,169 3,055 2,977 2,921 2,878 2,845 2,819 2,797 2,779 2,763 2,750 2,576 0,995 127,3 14,089 7,453 5,597 4,773 4,317 4,029 3,833 3,690 3,581 3,428 3,326 3,252 3,193 3,153 3,119 3,092 3,067 3,047 3,030 2,807 0,997 212,2 18,216 8,891 6,435 5,376 4,800 4,442 4,199 4,024 3,892 3,706 3,583 3,494 3,428 3,376 3,335 3,302 3,274 3,250 3,230 2,968 0,998 318,3 22,327 10,214 7,173 5,893 5,208 4,785 4,501 4,297 4,144 3,930 3,787 3,686 3,610 3,552 3,505 3,467 3,435 3,408 3,386 3,090 0,999 636,6 31,598 12,941 8,610 6,859 5,959 5,405 5,041 4,781 4,587 4,318 4,140 4,015 3,922 3,849 3,792 3,745 3,707 3,674 3,646 3,291 Приближенный доверительный интервал с тем же уровнем доверия выглядит так: 5 I где хх — решение уравнения 2F(x) - 1 = 0,999. По таблице нормального распределения (см. с. 69) определяем хх = 3,3 и искомый доверительный интервал 4,19 ^ М?^ 5,81. > Заметим, что точный доверительный интервал оказался более осторожным, чем приближенный. Этого и следовало ожидать. С увеличением же объема выборки приближенный доверительный интервал стано- становится более близок к точному. Действительно, пусть данные нашей задачи получены по выборке объема п = 50. Тогда tx = 3,5 и 4,45 ^ М? ^ 5 < 55. В то же время, хх = 3,3 и 4,48 ^ М? ^ 5,52 и разница между точным и приближенным доверитель- доверительными интервалами уменьшилась. 3.4. Эффективность оценивания. Неравенство Рао—Крамера При оценивании естественно считать дисперсию оценок мерилом того, насколько хо- хороша или плоха принятая процедура. Если ? — случайная величина с законом распре- распределения Ф^(х; /3) и для оценивания параметра /3 мы имеем две различные процедуры /3 » р*(Х\ ... Хп) и /3 а р\(Х\, Х2 ... Хп) с дисперсиями а\ = DC\ и а2^ = DC\ соответственно, то при <тД < <т^2 оценка C* считается лучше оценки р\. Для больших выборок этот показатель не очень существен, ибо, как следует из полученных выше соотношений C0), C8) и D4), при п —> оо точность оценивания убывает как 1/л/п и стремится к нулю независимо от
178 Глава XUII. Оценки Однако для малых выборок вопрос о выборе наилучшей в указанном смысле оцен- оценки приобретает важное значение. Мы получим ответ на него при дополнительном предположении о несмещенности рассматриваемых оценок. Пусть ? — случайная величина, плотность распределения которой Д(х; C) зависит от одного параметра C. Пусть, далее, C оценивается по выборке объема п несмещен- несмещенным образом /?«/Г(Х,,Х2,...,Хп), МрГ = р D5) И (см. п. 1.2.2.) функция правдоподобия выборки L = L{X\ ... Хп; C) опреде- определяется соотношением Тогда имеет место утверждение Теорема (Неравенство Рао—Крамера) *- D6) Для сокращения записи положим = (Хи...,Хп); J...J<p(Xu...tXn)dXl ...dXn = J\>(X)dX. n И с учетом этих обозначений получим L(X; C) dX = 1 и I /3*(Х)Ь(Х;/3) dX =/3. f Первое из соотношений?ледует из того, что функция правдоподобия есть плотность распределения вектора X выборочных значений (Х\, ..., Хп), второе — из несме- несмещенности оценки C*. Дифференцируя эти соотношения по /? и вычитая результаты дифференцирования, получаем D7) v / \ Li Op J Rn ИЛИ Из неравенства Коши—Буняковского для математических ожиданий заключаем, что чем доказательство и завершается. >
§3. Интервальное оценивание 179 Неравенство D6) при помощи несложных выкладок может быть переписано в не- несколько более удобном для практического использования виде. А именно, поскольку 1 эь = » 1 ад = » д in ь ар j^foxfip) дрк 3'P} j^ dp д In fAXj\ p) Функции г— независимы в силу независимости выборочных значений — In f${Xy, p) — In ft(Xj; p)\ = 0. С учетом этого замечания и неравенство D6) принимает вид 4 > , *^^2- D8) Пример 1. В важном для приложений случае оценивания математического ожидания нормальной слу- случайной величины ( получаем и D8) записывается в виде где <т — D?. Заметим, что для эмпирической оценки математического ожидания m й х = п ' выполняется и, следовательно, с рассматриваемой точки зрения эта оценка наилучшая. Такие оценки в статистике называются эффективными. Аналогичная теорема может быть доказана и для случая совместного оценивания нескольких неизвестных параметров распределения. Здесь мы ограничимся только формулировкой указанной теоремы. Пусть, как и выше, ? — непрерывная случайная величина с плотностью ft(X; p\, ... , Pk), зависящей от вектора параметров C = (Pi, ... , /3*), несмещенная оценка которого дается соотношениями pj ъ р* = рЦх), Мр*=р, j = l,...,fc, и! = L(X; Р) — функция правдоподобия выборки X. Пусть далее К[р*] = М(р* - р)(р* - р)Т
180 Глава XLJII. Оценки и \M lnL fdlnL\T] wvw) J — корреляционные матрицы вектора оценок /3* и градиента логарифма функции прав- правдоподобия, соответственно: Тогда, в предположении, что матрица I обратима, имеет место неравенство К[/П^Г', D9) которое следует понимать как неотрицательную определенность матрицы S = К—I, т. е. V х = (a:,-)f_,, х ф 0, выполняется неравенство 0х,ху ^ 0. E0)
Глава XUV СТАТИСТИЧЕСКАЯ ПРОВЕРКА ГИПОТЕЗ В этой главе мы познакомимся с элементами статистической проверки гипотез, т. е. с процедурой построения некоторых правил, позволяющих по результатам экс- эксперимента высказывать суждение о природе явлений, обусловливающих изучаемый эксперимент. §1. Общие сведения Пусть высказано некоторое предположение (гипотеза) Я о природе явления, которое мы наблюдаем в эксперименте. Чтобы проверить справедливость Я, следует либо изучить всю совокупность следствий, которые должны иметь место, если гипотеза Я верна, либо указать некоторое событие S, невозможное при верной гипотезе Я. В пер- первом случае (если все эти следствия наблюдаются) гипотезу Я можно считать верной, во втором (если событие наблюдается в эксперименте) гипотеза Я неверна. Это самая простая ситуация и рассуждения здесь проводятся по следующей схеме: гипотеза Я эквивалентна полному набору следствий, поэтому все следствия имеют место => Я верна A) или: если Я верна, то событие S невозможно; поэтому S имеет место =$¦ Н неверна, B) Проверка гипотез подобного рода не представляет для исследователя никаких за- затруднений, но на практике такая ситуация встречается редко. Первая сложность, с которой приходится сталкиваться, состоит в том, что в боль- большинстве действительно интересных для исследователя случаев проверить все след- следствия из гипотезы Я не представляется возможным и приходится ограничиваться проверкой только части следствий. Но заключение о справедливости гипотезы, сде- сделанное по неполному набору следствий из нее по схеме A), уже не является достовер- достоверным. В то же время заключение о несправедливости гипотезы Я, сделанное по схе- схеме B), все еще достоверно. Поэтому, находясь в указанной выше ситуации, можно только отвергнуть гипотезу по схеме B), наблюдая событие S, невозможное в случае ее справедливости, но нельзя гипотезу подтвердить. Можно лишь высказать суждение о правдоподобии гипотезы. Причем степень нашей уверенности в справедливости высказанного суждения будет тем выше, чем больший набор следствий из гипотезы Я удалось проверить.
182 Глава XUV. Статистическая проверка гипотез Классическим примером подобных гипотез являются естественно-научные гипо- гипотезы, которые всегда подвергаются указанной выше проверке и либо становятся теори- теориями (если нет противоречащих рассматриваемой гипотезе явлений), либо отвергаются (если таковые есть). Хотелось бы подчеркнуть вот какое обстоятельство: до тех пор, пока не обнару- обнаружено явление, противоречащее проверяемой гипотезе, ее отвергнуть нельзя. Поэтому если мы располагаем двумя гипотезами, одинаково подтверждающимися в экспери- эксперименте, то у нас нет никаких оснований для предпочтения одной из гипотез другой, и в то же время мы не в состоянии (поскольку располагаем неполным набором след- следствий) утверждать, что обе гипотезы справедливы! Дальнейшее усложнение связано с тем, что в основе изучаемых нами явлений могут лежать случайные воздействия, и мало того, что мы располагаем неполным на- набором следствий и не можем достоверно подтвердить гипотезу, мы теперь не можем ее и отвергнуть, ибо довольно трудно указать событие 5, невозможное в случае спра- справедливости гипотезы Н. Можно лишь указать событие S такое, которое происходит редко, если гипотеза Я верна. Схема B) в этом случае уже неприменима, ибо из того, что гипотеза Н верна, мы можем сделать заключение лишь о редкости события S, но не о его возможности. Поэтому наблюдение события S в эксперименте гипотезу Н не опровергает. Рассмотрим пример. Пусть производится контроль качества партии продукции, причем характер продукции таков, что сплошной контроль невозможен или нера- нерационален Для решения вопроса о качестве всей партии, содержащей N изделий, отберем п < N изделий и тщательно исследуем их качество. Пусть в выборке ока- оказалось пх дефектных изделий. Какое заключение можно сделать по этой выборке о качестве всей исследуемой партии? Видимо, единственное, что можно сказать на- наверняка, так это то, что исследуемая партия содержит не менее, чем щ, и не более, чем N — п + п\, дефектных изделий. Результаты произведенного исследования выборки, однако, позволяют надеяться, что доля дефектных изделий в партии близка к щ/п. Утверждать же это наверняка нельзя, ибо совершенно ясно, что и любое другое до- допустимое (не меньшее п\ и не большее N - п + п\) количество дефектных изделий в партии может привести к полученной нами выборке. Пусть гипотеза Щ состоит в том, что исследуемая партия содержит долю q0 — щ/п дефектных изделий. Для проверки этой гипотезы рассмотрим еще одну выборку из совокупности в N изделий. Пусть доля дефектных изделий в этой выборке оказалась равной q\ ф qq. Если разница между до и qx не очень велика, то отсюда еще не следует, что проверяемая гипотеза верна, хотя можно ожидать, что в большинстве случаев так оно и будет. Точно также, значительное различие </о и q\ не обусловливает неверности гипотезы Щ, но приводит нас к мысли, что гипотеза Щ все же малоправдоподобна. Это связано с тем, что при верной гипотезе Щ мы должны чаще получать выборки, доля дефектных изделий в ко- которых близка к qq, нежели выборки, доля дефектных изделий в которых значительно отличается от до. Возвращаясь к обсуждению общей ситуации, несколько видоизменим правила A) и B) принятия решений, предварительно формализовав рассматриваемые понятия. Пусть в эксперименте наблюдается случайная величина ? (или несколько случай- случайных величин ?i, ... , ?„). Любой непротиворечивый набор суждений о законе распределения случайной величины ? (или совокупности ?\, ... , ?„) будем называть гипотезой. Гипотезу будем называть простой, если она однозначно указывает закон распределения случайной величины ? (или совокупности ?\,... , ?„). В противном случае гипотеза называется сложной.
§ 1. Общие сведения 183 Пример 1. Пусть случайная величина ? — количество дефектных изделий в партии. Гипотеза Щ состоит в том, что доля дефектных изделий в партии равна до- Это простая гипотеза. Примером сложной гипотезы в данной ситуации может служить гипотеза о том, что доля брака в партии не превышает до- Пример 2. По выборке Х\,..., Хп получена оценка неизвестного математического ожидания случайной величины f. Гипотеза о равенстве М? некоторому числу а является простой. Пример 3. Пусть в эксперименте рассматривается пара независимых случайных величин. Гипотеза о равенстве их математических ожиданий является сложной. Пример 4. Пусть закон распределения случайной величины ? известен, но неизвестны значения па- параметров, его определяющих, F^(x) = F^(x; /?i,... ,/?*)• Тогда гипотеза #о о том, что параметры принимают известные значения является простой. Гипотеза же, указывающая только возможную область значений параметров будет сложной. Критерием проверки гипотезы будем называть любое правило, позволяющее по выборке делать заключение о справедливости или несправедливости проверяемой гипотезы. Как уже было отмечено выше, мы не можем построить логически безупречного критерия в случае гипотезы, связанной с законом распределения случайной величи- величины. Поступать в этом случае будем следующим образом: пусть М — множество событий наблюдаемого эксперимента. Выделим в М множество S событий, происхо- происходящих редко в случае справедливости проверяемой гипотезы Я. Пусть ш — результат эксперимента. Тогда если ш € S, считаем гипотезу малоправдоподобной, если ш ? S, считаем гипотезу правдоподобной. Множество S называется критическим множеством критерия. Здесь возможны четыре случая. I. Гипотеза Я верна и признана согласно критерию правдоподобной. II. Гипотеза Я неверна и признана согласно критерию неправдоподобной. III. Гипотеза Я верна, но согласно критерию признана неправдоподобной. IV. Гипотеза Я неверна, но согласно критерию признана правдоподобной. Случаи III и дописывают ошибки, возможные при проверке гипотезы статисти- статистическими критериями. Они носят название соответственно ошибок 1 и 2-города. Хотелось бы, чтобы применяемые нами критерии как можно чаще приводили к случаям I или II и как можно реже к ошибкам (случаи III и IV). Поэтому критическое множество S обычно выбирают так, чтобы при правильной гипотезе Я вероятность получения в эксперименте исхода о» € S была как можно меньше. Эта вероятность (ве- (вероятность ошибки 1-го рода) носит название уровня значимости критерия. Как следует из вышеизложенного, мы не можем указать множество S, соответствующее нулевому уровню значимости. Поэтому будем довольствоваться критическими множествами, соответствующими хоть и не нулевому, но довольно близкому к нулю уровню значи- значимости. Обычно в качестве уровня значимости берут значения 0,05; 0,01; 0,001, хотя в зависимости от конкретной ситуации могут употребляться и другие близкие к нулю вероятности. Для того чтобы свести к минимуму ошибки 2-го рода, следует, наряду с исследуе- исследуемой гипотезой Я, рассмотреть конкурирующие с ней гипотезы. Действительно, пусть верна какая-либо из альтернативных простых гипотез Н\. Тогда неверная гипотеза Я
184 Глава XLIV. Статистическая проверка гипотез будет признана верной в том случае, когда множество событий, имеющих место в слу- случае справедливости гипотезы Н\, пересекается с множеством событий, частых в случае справедливости проверяемой гипотезы Я. Вероятность принять гипотезу Я в случае, когда верна гипотеза Н\, называется оперативной характеристикой критерия относительно гипотезы Н\. Вероятность отвергнуть гипотезу Я в случае, когда верна гипотеза Hi, называется мощностью критерия относительно гипотезы Н\. Таким образом, выбор критической области S диктуется минимизацией вероят- вероятностей ошибок первого и второго рода. Если удается построить критическую область так, что мощность критерия принимает наибольшее значение для данной простой аль- альтернативной гипотезы Н\, то соответствующий критерий называется наиболее мощным при данном уровне значимости. Равномерно наиболее мощным критерием называется критерий, наиболее мощный относительно всех допустимых альтернативных гипотез при данном уровне значи- значимости. Рассмотрим пример, иллюстрирующий введенные выше понятия. Пусть ? — случайная величина, описывающая число появлений герба в п последовательных независимых испытаниях, вероятность появления герба в ка- каждом из которых неизменна. Гипотеза, которую мы хотим проверить, состо- состоит в том, что вероятность появления герба в отдельном испытании равна 0,5. Альтернативные гипотезы Нр — вероятность выпадения герба в отдельном ис- испытании равна р Ф 0,5. Легко видеть, что как проверяемая, так и альтер- альтернативные гипотезы являются простыми. Для проверки гипотезы Яо,5 проведе- проведено п экспериментов и отмечено, что герб появился щ раз. Множество М ис- исходов эксперимента состоит из всех возможных наборов {п], щ ^ п}, описы- описывающих число появления герба щ, щ = 0, 1, 2, 3,... , п. Критическое множе- множество 5, определяющее критерий, будет подмножеством множества исходов М. За- Зададим уровень значимости а и определим 5 так, что если гипотеза Яо,5 верна, то ЗД? € SK а, C) или J2 С*@,5)" ^ а. Суммирование ведется здесь по всем к таким, что значение ? = к принадлежит кри- критическому множеству S. Легко видеть, что при заданном уровне значимости можно указать довольно много различных множеств S, удовлетворяющих соотношению C). Каждое из этих множеств будет определять критерий для проверки нашей гипотезы. Возьмем, к примеру, в качестве S множество Si = {щ: щ < fc0}, где fc0 однозначно определяется из соотношения ? Сп*@,5)" ^ а D) *=о как наибольшее из возможных fc0 • Критерий К\, построенный на основании S\, будет признавать гипотезу Яо,5 неверной, если ? ^ fco, и верной в противном случае. Ясно, что это должен быть не очень хороший критерий. Критерий Ki построим на основа- основании множества 52 = {щ: щ < к\ или щ ^ n-fcj}. Этот критерий будет признавать гипотезу Яо,5 верной, если к\ ^ ? ^ п - к\, и неверной в противном случае. Он уже кажется лучшим, чем К\.
§1. Общие сведения. 185 Действительно, рассмотрим мощности критериев К\ и Кг относительно какой- либо из альтернативных гипотез Нр, р Ф 0,5. Пусть верна гипотеза Нр. Мощность критерия К\ относительно гипотезы Нр *0 fc=0 Для критерия Кг 1-fc E) F) В этом равенстве к\ определяется из соотношения k=n-ki 1 0 0,5 1 Рис. 1 как наибольшее из возможных fcj. Зависимость мощности E) и F) критериев К\ и Кг соответственно от альтернативной гипотезы Нр схематично представлена на рис. 1. Отсюда легко усмо- усмотреть, что критерий К\ будет неплох, если альтернативная гипотеза Нр такова, что р < 0,5. Если же р > 0,5, то согласно критерию-й^ мы будем почти всегда проверяемую гипотезу Яо,5 считать верной. Впрочем, это было очевидно с самого начала: выбран- выбранная нами критическая область S\ совершенно нечувствительна к отклонениям числа появившихся в эксперименте гербов в сторону чисел, ббльших 0,5п. Критерий же Кг строился на основании отклонений как в ту, так и в другую сторону от наиболее веро- вероятного при верной гипотезе Щ$ числа 0,5п и потому оказался чувствительным ко всем альтернативным гипотезам. Однако и он нелишен недостатков. Его чувствительность падает с приближением р к 0,5 (см. рис. 1). Но (ясно из постановки задачи) это вполне естественно, и ничего лучшего в данной ситуации предложить нельзя. Легко проверить, что критерий Кг будет более мощным, чем критерий К\, для любой альтернативной гипотезы Нр такой, что р > 0,5. В дальнейшем мы не будем останавливаться на исследовании мощности того или иного критерия, ибо сама постановка задачи обычно определяет, какая из возможных при данном уровне значимости критических областей S будет наилучшей. В заключение отметим важное обстоятельство: проверяемая нами при помощи ста- статистических критериев гипотеза не подлежит вероятностной оценке. Поскольку она описывает некоторые объективные стороны исследуемого процесса, то может быть либо верной, либо неверной, и высказывание типа: «Гипотеза верна с вероятностью такой-то» бессмысленно. В связи с этим полезно иметь в виду, что уровень значимо- значимости критерия, мощность критерия, оперативная характеристика критерия не являются условными вероятностями описанных выше событий «при условии, что верна гипо- гипотеза Щ». Эти характеристики критерия описывают вероятность встретить в экспе- эксперименте ту или иную выборку в предположении, что истинная природа явлений, наблюда- наблюдаемых нами, описывается гипотезой Но или какой-нибудь альтернативной гипотезой Н. Мы не можем говорить об условной вероятности Р{? G S | Щ}, так как не в состоянии осмысленно приписать какую-либо вероятность гипотезе Щ.
186 Глава XUV. Статистическая проверка гипотез §2. Параметрические гипотезы. Лемма Неймана—Пирсона Пусть случайная величина ? имеет распределение F^(x; /3h /32>... > /3*), известное с точностью до вектора параметров /3 = {/3t,... , /3*}. Назовем гипотезу Щ пара- параметрической, если она состоит в предположении, что вектор /3 принимает значения из некоторого множества W, Яо: peWCRk. При построении критериев проверки параметрических гипотез важную роль играет принцип отношения правдоподобия, позволяющий в подавляющем большинстве важных для приложений ситуаций строить критические области критериев. Для упрощения дальнейшего изложения будем считать f непрерывной с плотно- плотностью Д(ж; /3). Напомним, что процедура проверки подобной гипотезы против альтернативы Н: ft ? W требует указания критического множества S такого, что если х G S — гипотеза принимается, в противном же случае — отвергается. Положим C(W) = sup L (X; p)t C = supL (X; 0), pew p n _ где L = Yl fi{%i\ /3) — функция правдоподобия выборки X, и рассмотрим отноше- i=i ние <Vff0 = —? ) G) которое называется отношением правдоподобия. Ясно, что А#о находится в пределах от 0 до 1. Далее заметим, что при фиксированной_выборке X предпочтительными являются те значения параметров /3, для которых L (X; /3) больше; поэтому чем ближе величина А#о к единице, тем «более правдоподобно», что гипотеза Но верна, если же значения А#о — маленькие, то скорее всего гипотеза Щ неверна, так как более «ве- «весомой» представляется одна из альтернативных гипотез, значительно увеличивающая знаменатель отношения правдоподобия в сравнении с числителем. Приведенные выше интуитивные соображения удается аккуратно формализовать в виде следующего утверждения. Теорема (принцип отношения правдоподобия Неймана—Пирсона). Для любого 0 < а < 1 крити- критическое множество S критерия проверки параметрической гипотезы Щ: /3 G W суровнем значимости а дается соотношением :АЯо<Са}, (8) где Са — постоянная, определяемая условием }^a. (9)
§2. Параметрические гипотезы. Лемма Неймана—Пирсона 187 Можно доказать, что так построенный критерий обладает определенными опти- оптимальными свойствами, в частности, если гипотеза Щ — простая и строится критерий проверки против гипотезы Н — также простой, то критерий отношения правдоподо- правдоподобия оказывается равномерно наиболее мощным критерием. В качестве примера использования сформулированного выше принципа рассмо- рассмотрим процедуры построения критического множества S для проверки различных, часто встречающихся гипотез. 2.1. Проверка гипотезы о равенстве математического ожидания нормальной случайной величины числу а Постановка задачи. В эксперименте наблюдается случайная величина f, распреде- распределенная по нормальному закону с неизвестными параметрами М? и D?. Получена выборка из распределения случайной величины f. Требуется выяснить, справедли- справедлива ли гипотеза о равенстве М? = а. Вектор параметров /3 в этой задаче двумерен /3 = (т, <г), нулевая гипотеза Щ состоит в том, что /3 G W, где W = {(т, а): т = а, а > 0} — по- полупрямая на полуплоскости М^ = {(m, or): a > 0}. Функция правдоподобия выборки X — (Х\ ... Хп) будет иметь вид L(Xt Р) = L(Xt т, а) = j~ ¦ ± ехр[-^ ][>,• - тJ]. A0) Для C(W) и С получим соответственно C(W)= sup L(X, m,a), (m, a)€W C= sup L(X,m,a). ' (m,, Несложные выкладки по нахождению экстремумов A1) приводят к формулам { Отношение правдоподобия G) принимает вид 1 \ п $2 * $2 i 1 экстр Заметим, что так как (Xi - xf = (Xi-a + a- хJ = (Xt - аJ + (a - хJ + 2(Х, - а)(а - х), то п 2 + п(х аJ 2п(х аJ = ^(Х аJ п(х аJ Г,- - ay + n(x - ay - 2n(x - aI = }^(Х{ - aI - n(x - a) t=i
188 Глава XUV. Статистическая проверка гипотез Отсюда, разделив последнее соотношение на его левую часть, получим 1 \2/« 1 где tn_i = ^л/я — случайная величина, имеющая распределение Стьюдента с п — 1 степенью свободы. Поэтому критическая область (8) в рассматриваемом случае имеет вид S = {X?Rn: XHo<Ca} = {tn^eE: |*„_,|>*«}, A2) где значение ta дается соотношением Мы пришли к хорошо известному критерию Стьюдента проверки рассматриваемой гипотезы, который, впрочем, легко мог бы быть получен прямыми рассуждениями, не связанными с использованием, отношения правдоподобия. Действительно, по выборке, полученной в результате эксперимента, мы можем построить точечную оценку х неизвестного параметра n i=. Результаты предыдущей главы позволяют утверждать, что оценка A3) похожа на ис- истинное значение М?, но не обязательно с ним совпадает. Поэтому из того, что х ф а, мы еще не можем сделать заключения, что М? ф а. Если вспомнить аналогию с пе- пещерным человеком Платона, то х — это наблюдаемая нами «тень» М? и мы должны, сравнивая «тень» и известное нам число а, высказать суждение, верна гипотеза М? = а или неверна. Если принять, что гипотеза М? = а верна, то величина х — а г- t= —VS A4) оказывается распределенной по закону Стьюдента с п — 1 степенью свободы. Зададим некоторый уровень значимости а и определим критическое множество S как множество таких отклонений гота, вероятность встретить которые в экспери- эксперименте (в случае справедливости гипотезы М? = а) не превышает а. Здесь заложена следующая идея: если гипотеза верна, то отклонения чаще будут малыми, а реже большими. Поэтому малыми считаем те отклонения, которые встречаются часто! S = {х-а: Р{\х -а\> Аа} ^ а]. Поскольку где Sn-\ (г) — функция распределения Стьюдента с п - 1 степенью свободы, то погра- пограничная величина Да может быть определена из соотношения /AaVn\ 25„_1 1 - 1 ^ 1 - а. \ s ) Для проверки гипотезы по конкретному набору Х\, ЛГг, ... , Хп, полученному в экспе- эксперименте, вычислим оценку х и найдем отклонение х-а. Если оно попадает во множе- множество S, то гипотеза о равенстве М? = а считается несогласующейся с экспериментом
§2. Параметрические гипотезы. Лемма Неймана—Пирсона. 189 и отвергается на уровне значимости а, в противном случае гипотеза принимается на уровне значимости а. Пример. Станок настроен на выпуск деталей размером d. Размеры деталей, изготавливаемых на дан- данном станке, не будут в точности равны d, а будут иметь размер где i можно считать нормальной случайной величиной с математическим ожиданием 0 и некоторой дисперсией а2. Деталь считается бездефектной, если отклонение ее размера от заданного заключены в пределах -h ^ ^ /». Таким образом, хорошо настроенный станок будет в среднем давать долю q бездефектных изделий, где -(И- В процессе изготовления деталей станок может разладиться — центр настройки d может сместиться, при этом размер детали будет выражаться соотношением Здесь а — смещение центра настройки станка. Отклонение d размера детали от заданного будет в этом случае случайной величиной с нормальным законом распределения и с математическим ожида- ожиданием М(_\ = М((+а) = а. Доля бездефектных изделий, изготовленных на станке, при этом уменьшится ft-o т.е. увеличится доля брака (рис.2). Важная задача центра настройки. — своевременно установить момент смещения Рис.2 Берется некоторое количество деталей (обычно 3-4) и находится средний размер, а затем откло- отклонение этого среднего размера от предполагаемого d. Сравнив полученное отклонение с границами для отклонения, которые должны иметь место в случае, если смещение центра настройки не произошло, можно выяснить, справедлива ли гипотеза о смещении центра настройки станка. 2.2. Проверка гипотезы о равенстве дисперсии нормальной случайной величины ? числу Ь Постановка задачи. В эксперименте наблюдается случайная величина ?, распределен- распределенная по нормальному закону с параметрами М? — т и D? = а2, которые неизвестны. Получена выборка из распределения случайной величины ?: Х\, Xi, • •., Хп. Требу- Требуется выяснить, равно ли число D? некоторому наперед заданному числу Ы Аналогично тому, как это было сделано в предыдущем пункте, можно показать, что принцип отношения правдоподобия приводит к критическому множеству S, опреде- определяемому статистикой 2 S2 Х„_1 = т-п-1), A5) о где s2 — несмещенная оценка дисперсии. А именно, если гипотеза а2 = b справед та, то величина A5) имеет распределения х2 с п - 1 степенью свободы и для у
190. Глава XLJV. Статистическая проверка гипотез значимости а критическое множество S может быть определено как множество таких значений s2, вероятность встретить которые в эксперименте не больше а, S={s2: P{s2e, В силу несимметричности распределения %2 мы используем для построения области S несимметричные доверительные границы. Получаем =ph<^-(n-l)\ и Здесь Р{6 < х} — функция %2-распределения с п — 1 степенью свободы. Решая уравнения <?„-¦(*) = f и 1-<?„_,(*) = ^, находим числа t'a и t"a такие, что A6) откуда критическое множество S имеет вид \ап-1* a n-\)' Для проверки гипотезы по конкретному набору Х\> ЛГг, ... > Хп значений случайной величины ?, полученному в эксперименте, вычислим оценку s2 дисперсии. Если полученное число попадает в критическую область S, гипотеза отвергается на уровне значимости а, в противном случае гипотеза принимается. Пример. Станок настроен на выпуск деталей некоторого наперед заданного размера d, причем точность работы станка описывается дисперсией D? случайной величины ? — отклонения размера d детали от заданного среднего d: где ? — нормально распределенная случайная величина с М? = 0 и D? = а2. Деталь считается бездефектной, если отклонение ? удовлетворяет условию Если смещение центра настройки не наблюдается, то в среднем мы будем получать долю q бездефект- бездефектных изделий В процессе изготовления деталей точность может снизиться, т. е. может увеличиться дисперсия наблюдаемых отклонений ? от заданного размера d. Если смещение центра при этом не произошло, то отклонение будет описываться случайной величиной ?\, дисперсия которой D?\ > D?. Доля дефектных изделий при этом увеличится (рис. 3). Рис.3
§2. Параметрические гипотезы. Лемма Неймана—Пирсона 191 Для того чтобы вовремя обнаружить разладки станка, возьмем некоторое количество деталей C-4) и найдем оценку s2. Сравнив полученную оценку с границами, которые должны иметь место, если разладки нет, мы сможем выяснить справедливость наших подозрений относительно снижения точности изготовления деталей на данном станке. В заключение этого пункта отметим, что при проверке гипотезы о равенстве дис- дисперсий а\ = <г\ пары независимых нормальных случайных величин по независимым выборкам объемов пит соответственно, принцип отношения правдоподобия в каче- качестве статистики для построения критической области дает величину Z — отношение Фишера—Снедекера (п - l)s2 Z = j ~ = Z[n~l;m~\], A7) (m — ljSj имеющую, в случае справедливости гипотезы о равенстве дисперсий, распределение Фишера с (п — 1, тп — 1) степенями свободы. Зададим уровень значимости а и определим критическое множество S как мно- множество таких значений s2/s\, вероятность встретить которые в эксперименте не боль- больше а, Напомним, что распределение Фишера асимметрично и при п > 2 унимодально. Если наша гипотеза справедлива, то в большинстве случаев отношение s]/s\ долж- должно быть близко к единице, т. е. отношение A7) должно быть близко к (п - 1)/(т - 1). Учитывая асимметрию, выберем числа щ и «2 так, чтобы = 1 и ры Если Fn_]) m-i (x) — функция распределения случайной величины Z, то числа щ и «2 являются решениями уравнений = 2, и i-fii_1iW_ a Для проверки гипотезы по выборкам, полученным в результате эксперимента, находим отношение s\/s\. Если оно попадает в критическую область, гипотеза о ра- равенстве дисперсий считается несогласующейся с опытными данными на уровне зна- значимости а, в противном случае гипотеза принимается. 2.3. Проверка гипотезы о равенстве средних нормальных случайных величин Постановка задачи. Рассмотрим пару независимых нормально распределенных слу- случайных величин ?i и & с параметрами М?], D?\ и М?2, D& соответственно. В резуль- результате эксперимента получены две независимые выборки из распределения случайных величин ?i и & Х\, Х2, ... , Хп и Y\, Yi, ... , Yn. Требуется выяснить, совпадают ли математические ожидания М?\ и М?2- 1. По выборкам строим оценки sf и si дисперсий D?\ и D& и, как это указано в предыдущем пункте, проверяем гипотезу о равенстве D?\ = D&- Пусть гипотеза о равенстве дисперсий согласуется с экспериментальными данными: а\ = а\.
192 : Глава MLJV. Статистическая проверка гипотез Лемма. Случайная величина п т 2 является несмещенной оценкой общей неизвестной дисперсии случайных величин fa и fa. < Заметим, что 2 (П- \)s\ + (Ш - l)sl "'m n + m-2 Поэтому i 71—1 -> 771—1 -> Af 52 = Ms] + М s22. n + m-2 n + m-2 Ho s2 и s\ — несмещенные оценки ?>?,- = а2, а потому Ms2 = а2 и МS2 = <r2, откуда MS2 = а2, что и требовалось доказать. > Теорема. Случайная величина х-у имеет распределение Стьюдента с п + т - 2 степенями свободы, если только верна гипотеза о том, что Mfa = Mfa. п тп Здесь х = jE^t,j/=f E^i> a S2 — несмещенная оценка A8) общей диспер- = Dfa = о- . < Поскольку выборки ЛГЬ ЛГ2, ... , Хп и Уь Y2i ... , Yn из нормальных законов, то разность х — у распределена по нормальному закону с М(х — у) = 0 (в случае верной гипотезы Mfa = Mfa). Поэтому величина (х — у)/а распределена нормально с параметрами 0 и у ^ + ^. Случайные величины (n-l)s2/<r2 и (n-l)s2/<r2 не зависят от х и у и распределены каждая по закону х2с«-1ит-1 степенями свободы соответственно. Поэтому величина с2 2 2 а2 а2 а2 имеет распределение х2 с п + тп - 2 степенями свободы и не зависит от х - у. Отсюда отношение х-у t = —. Vnm = —l A9) имеет распределение Стьюдента с п + тп - 2 степенями свободы. > Как и выше, можно показать, что принцип отношения правдоподобия приводит к критической области, определяемой статистикой A9) (для фиксированного уровня значимости а область S определяется из условия Р{\х-у\>Аа}^а).
§ 3. Критерии согласия 193 2. Если же гипотеза о равенстве дисперсий D?\ = D& не подтверждается, то случайную величину, описывающую отклонения х и у, закон распределения которой не зависит от параметров распределения случайных величин ?i и ?2> построить уже не удается. Проверку гипотезы о равенстве средних двух независимых нормальных совокупно- совокупностей проводят в этом случае следующим образом: рассматривается случайная величина "Г п т которая имеет нормальное распределение с параметрами 0 и 1. Если пит достаточно велики, то замена точных значений D?\ и D& их оценками s\ и s\ не очень нарушает распределения случайной величины и можно считать, что случайная величина имеет приблизительно нормальное распределение с параметрами 0 и 1 (при верной гипотезе М?\ — М&)- Этим удобно воспользоваться при построении критической области S, описывающей редкие отклонения х и у. § 3. Критерии согласия Другую важную группу гипотез образуют непараметрические гипотезы, из которых мы остановимся здесь на гипотезах о законах распределения. Очень часто из тех или иных соображений может быть высказана гипотеза о ха- характере закона распределения наблюдаемой случайной величины. К примеру, если случайная величина ? обусловлена суммарным воздействием большого числа прибли- приблизительно одинаковых факторов, то, руководствуясь центральной предельной теоре- теоремой, разумно предполагать, что ? имеет нормальное распределение. Как мы уже знаем, представление об истинной функции распределения случайной величины ? можно составить по эмпирической функции распределения. Поэтому если высказана гипотеза о том, что истинная функция распределения случайной ве- величины ? есть i^(x), то естественно изучать поведение отклонения предполагаемой функции i^(x) от наблюдаемой эмпирической Fn(x). Если отклонение i^(x) от Fn(x) окажется значительным, то i^(x) не может быть функцией распределения случайной величины ?. Причем значительными будем считать такие отклонения, вероятность наблюдения которых в эксперименте при верной гипотезе очень мала. Построим случайную величину d = d{F^(x), Fn(x)}, описывающую различие меж- между гипотетической функцией i^(x) и наблюдаемой Fn(x). Задавая уровень значимо- значимости а, определяем число da такое, что P[d > <U ^ a. Тогда гипотеза о виде закона распределения считается согласующейся с эксперимен- экспериментальными данными, если d < da. В противном случае гипотеза считается плохо согласующейся с экспериментом и отвергается на уровне значимости а. Выбирая ту или инуюмеру d{i^(x), Fn(x)} отличия i^(x) от Fn(x), будем получать для проверки изучаемой гипотезы различные критерии. 7 3ah 244
194 Глава XUV. Статистическая проверка гипотез 3.1. Критерий Колмогорова—Смирнова Пусть в качестве d взята величина Dn = sup\Fn(x)-Ft(x)\. B0) X Теорема Гливенко—Кантелли утверждает, что Dn -*¦ 0, если объем выборки неограни- неограниченно возрастает. Рассмотрим Ап = VnDn. Имеет место следующая Теорема. Пусть гипотетическая функция F^(x) непрерывна. Тогда функция распределения случайной величины А„ не зависит от вида F{(x). < Пусть ЛГ], Х2,... , Хп — выборка объема п из закона распределения случайной величины ?. Рассмотрим набор случайных величин YJ- = F^(Xi), i ~ 1, 2,... , п. Лемма. Если ? — случайная величина с законом распределения F{(x), причем F^(x) непре- непрерывна, то случайная величина Т) = i^(?) равномерно распределена на [0,1], т. е. Так как функция распределения i^(x) монотонно возрастает и 0 < F^(x) < 1, то На отрезке 0 ^ у < 1 На основании леммы, набор случайных величин Y{, i = 1,2,... , п, образует вы- выборку объема п из равномерного распределения. Пусть Fn(y) — функция равномер- равномерного распределения, Fjf(y) — эмпирическая функция равномерного распределения, построенная на выборке Y{ — количество Yi, которые меньше у п • и х таково, что F{(x) — у. Рассмотрим „ количество!^, которые меньше у ffi \У) ~ ^г)\У) = ~ У = количество ^(ЛГ,), которые меньше у = п У- Вследствие монотонности функции F^(x) {количество F^(Xi), которые меньше у} = {количество А",-, которые меньше х}.
§3. Критерии согласия 195 Учитывая это, получаем „, ч , ч количество X,, которые меньше х F«(y) - F4(y) = ^— Fe(x) = Fn(x) - Fe(x). Отсюда sup\F%(y) - F4(y)\ = sup|Fn(x) - Fe(x)|. У x Но левая часть последнего соотношения не зависит от вида функции F^(x), следова- следовательно, не зависит и правая. > Таким образом, введенная нами мера А„, описывающая различия эмпирической и гипотетической функций распределения, не зависит от вида гипотетической функ- функции распределения, а определяется лишь объемом выборки п. Если объем выборки неограниченно возрастает, то функция распределения слу- случайной величины А„ мало отличается от некоторой фиксированной функции. А имен- именно, имеет место теорема Колмогорова 00 К(х) = lim Р{Хп < х} = 1 - 2 У^(-1)*+1е~2*2х2, х ^ 0. п—>оо ^—-^ Независимость предельного распределения А„ от гипотетической функции F^(x) позволяет построить критерий для проверки гипотезы о согласованности эмпиричес- эмпирических данных с гипотетическим распределением. Пусть гипотеза верна, тогда (если п достаточно велико, п ^ 50) Р{Хп > х} ю 1 - К(х). Задавая уровень значимости а, определяем Аа из уравнения Р{Хп ^ Аа} = а. В соответствии с общей установкой гипотезу считаем согласующейся с эмпирическими данными, если полученное по конкретным данным значение An = Vnsup|Fn(a;)-^(a;)| не превышает Аа, в противном случае гипотезу отвергаем. 3.2. Критерий х2 Пирсона Одним из наиболее часто употребляемых на практике критериев согласия является критерий х2 Пирсона. В качестве меры несогласованности гипотетического и эмпи- эмпирического распределений рассмотрим следующую величину. Пусть Х\, Хг, ... , Х„ — выборка из закона распределения случайной величины ?. Разобьем числовую прямую на s разрядов и найдем частоту щ попадания случайной величины ? в г-й разряд разбиения Д,: количество Xj, принадлежащих Д$ щ п п ' >>•••>• Пусть F{(x) — гипотетическое распре- А А А деление случайной величины ?. Тогда »¦* » ¦ вероятность того, что случайная величи- величина ? принимает значения в г-м разряде а' °2 а"-2 разбиения Д;, равна Рис. 4 Здесь a,-, a,_i — концы г-ro разряда разбиения(ао = -сю, as = сю) (рис. 4). .
196 Глава XLJV. Статистическая проверка гипотез Рассмотрим величину « / _ \2 * / _ \2 х1<=пУ2-~- = Т,{ ' • B1) Если наша гипотеза верна, то отклонения */, - pi в большинстве случаев долж- должны быть малы, поэтому в качестве меры различия эмпирического и теоретического законов распределения целесообразно взять величину B1). Имеет место теорема о независимости предельного распределения для xl-1 от вида гипотетической функции распределения. Теорема Пирсона. lim P{x]-\ <x}= Gs_,(x), x > 0. n-юо Здесь Gs-i(x) — х2-распределение с s — 1 степенью свободы. При достаточно большом числе наблюдений эта теорема может быть использована для построения критерия согласия. Пусть а — уровень значимости. Решив уравнение найдем пограничное значение Хо> сравнивая с которым экспериментальное значе- значение B1), будем делать заключение о согласованности или несогласованности нашей гипотезы с экспериментом. Остановимся на чувствительности критерия х2 несколько подробнее. Пусть на- наша гипотеза ошибочна и истинные значения ft вероятностей попадания в г-й разряд разбиения отличны от найденных нами вероятностей р,. Тогда случайная величи- величина B1) уже не будет следовать распределению х2 с 5 - 1 степенью свободы и для математического ожидания величины B1) получим ^ M{vj - ftJ ^ M{vj - ft) ^ (ft - PiI = n > 1- 2n у h n > Но М(v\ - ftJ = ftA - ft), M(v\ - ft) = 0, и поскольку хотя бы одна из вероятностей Чх ?"Pi,To X)(ft - PiJ/Pi Ф 0. Поэтому х= 1 Тем самым, с ростом объема выборки указанная величина неограниченно возрастает, если только наша гипотеза неверна. Таким образом, на практике, если число наблю- наблюдений достаточно велико, неверная гипотеза будет отвергнута. Практические рекомендации к применению критерия Пирсона следующие: же- желательно, чтобы разбиения на разряды проводились таким образом, чтобы npi ^ 10. Число разрядов разбиения при этом должно быть не менее 7 -8. Если же эмпирических
§3. Критерии согласия 197 данных очень много (скажем, число разрядов превышает s =¦ 30), то целесообразно воспользоваться для построения критерия не распределением xl-\, а предельным для него при s —> оо нормальным. Сравнивая критерий Колмогорова и критерий Пирсона, заметим, что первый более точен и приводит на практике к менее громоздким вычислениям, чем второй. Следует, однако, отметить, что в практической ситуации гипотетический закон распределения F^(x) может быть точно указан крайне редко. Более реальной является такая ситуация, когда можно лишь высказать предположение о целой группе гипотети- гипотетических законов F{(x; /3\, ... , fa), каждый из которых определяется фиксированным набором параметров /3\, ... , /3*. В этом случае гипотеза выглядит следующим образом: распределение случайной величины ? описывается законом F^(x; f3\, ... , /3*) при некотором наборе параметров C3. При замене неизвестных параметров их оценками, найденными по выборке, сле- следует иметь в виду, что для одного и того же параметра можно указать очень много различных оценок. Поэтому, заменяя истинные значения неизвестных параметров их оценками, мы портим предельные распределения рассмотренных нами мер отличия — основные теоремы предыдущего и настоящего параграфов становятся неверными. В этом случае описанными критериями пользоваться, вообще говоря, уже нельзя. Так, например, применение в указанной ситуации критерия Колмогорова приводит к тому, что чем больше параметров мы оценили по выборке, тем лучшее согласие он покажет даже при неверной гипотезе, тогда как критерий Пирсона допускает некото- некоторое видоизменение таким образом, что он остается пригодным и в описанной выше ситуации. Теорема. Пусть /3*, C\, ... , f3\ — оценки максимального правдоподобия или оценки, по- полученные по методу моментов. Тогда случайная величина B1) имеет распределение х2 с s - к — 1 степенями свободы, т. е. число степеней свободы распределения случайной величины B1) уменьшается на число оцениваемых по выборке параметров. Пример. Пусть в эксперименте получена выборка объема п из распределения случайной величины ( Х\, Xi, • ¦ ¦, Хп и высказана гипотеза о нормальности распределения случайной величины ?. Применим критерий х2- Производя разбиение числовой прямой на разряды, вычисляем значе- значения эмпирических частот i/, попадания случайной величины ? в г-й разряд разбиения. Для подсчета теоретических вероятностей попадания в г-й разряд разбиения необходимо знать параметры т и а нормального распределения. Заменим их оценками в2 = -Ц. ?(*, - хJ и вычислим вероятности Л, Находим Для того чтобы определить пограничное значение Ха • заметим, что число степеней свободы случайной величины х2 равно s - 3, так как мы оценили по выборке два неизвестных параметра распределения: т и о' . Поэтому Ха ищем из уравнения 1 - С?,_з(х) = а. Здесь Ga-2(x) — х -распределение с s-З степенями свободы.
198 Глава XUV. Статистическая проверка гипотез В заключение отметим, что если по выборке оценено значительное количество неизвестных параметров, то тем самым гипотетическая функция распределения ис- искусственно приближена к эмпирической и критерий в этих случаях дает неоправданно высокую степень согласованности. Поэтому, если число степеней свободы оказывает- оказывается малым C-4 и меньше), то для повышения уровня достоверности допускаемых нами выводов наряду с критерием х2 следует использовать и другие критерии и оценки.
Глава XLV СТАТИСТИЧЕСКОЕ ИССЛЕДОВАНИЕ ЗАВИСИМОСТЕЙ В этой главе мы рассмотрим несколько часто встречающихся в приложениях задач, связанных с восстановлением зависимостей между наблюдаемыми в эксперименте переменными. Общая структура задач, о которых пойдет речь ниже, такова: наблюдаются две группы переменных — объясняющая (или исходная), описываемая вектором х = (ж,)"=1 и итоговая (или выходная), описываемая скаляром у. Следует дать ответы на вопросы: — есть ли связь между переменными хиу? — если связь есть, то какова возможная форма этой связи? — каковы качественные характеристики этой связи? Ответы на перечисленные вопросы (да и сами вопросы) могут выглядеть по разному в зависимости как от природы переменных хи у, наблюдаемых в эксперименте, так и от условий проведения измерений. Различают следующие три основные модели. 1. Переменные х — детерминированные, а переменная >> = rj — случайная величина. Мы будем говорить что у зависит от х, если изменение переменных х влечет за собой изменение закона распределения случайной величины у = г\ Фг](А) = Р{г,?А} = РТ1(х). A) Если при этом математическое ожидание случайной величины rj может быть описано некоторой функцией переменных х M(tj) = ф) = (р(х{, х2) ... , xn), B) то мы, следуя сложившейся традиции, будем называть такую зависимость регрессион- регрессионной. Широкий класс регрессионных моделей описывается следующим примером. Пример. Пусть х = (Ж|)Г=1 — неслучайный вектор, у = /(х). В эксперименте измеряются значения у так, что 9 = У + * = /(«) + *• C) Здесь г) — измеренное значение переменной у, ? — ошибка измерения с М? = 0 (последнее означает отсутствие систематических ошибок измерения). Соотношение C) — модель измерений — доставляет нам пример регрессионной зависимости, так как из сделанных выше предположений следует, что Mr, = f(x). D) Как правило, в рассматриваемой ситуации вид линии регрессии /(х) = /(х; а) бывает известен с точностью до вектора параметров а = (а, )*_ ( и задача установления наличия зависимости между х и у не стоит. Требуется только определить возможные значения параметров а и установить «качество» описания величины у посредством функции /(х, а)
200 Глава XLV. Статистическое исследование зависимостей 2. Переменные x = ?uy = ri — случайные величины, совместный закон рас- распределения которых дается функцией Ф% ^(А, В) = Р{? € A; rj € В}. Известно, что случайные величины ? и rj независимы тогда и только тогда, когда выполняется соотношение ф?,,и,в) = ф?и)-ф,(в). E) Если же равенство E) не имеет места, то случайные величины зависимы. При этом, как и выше, выделим специальный случай, когда изменение математического ожидания случайной величины ц описывается некоторой функцией от ?, * const> и будем говорить, что соотношение F) описывает регрессию rj на |. (Естественно, предполагается, что условные средние F) существуют.) Идентификация наличия или отсутствия зависимости между rj и | представляет в рассматриваемом случае содержательную задачу, равно как и проблема установления формы регрессионной связи F). Важным для приложений частным случаем рассмотренной ситуации является слу- случай совместной нормальности ? и rj. В этом случае проблема определения формы связи F) не стоит — регрессия ц на \ является линейной и дается соотношением Mh/f]=Krh,f].K-I[f,f](f-Mf)+Miy. G) Здесь K[f, f] = M(f - Mf )(? - М?) — ковариационная матрица вектора \, а К [tj, ? ] = M(tj — Mrj) (? - М? ) — ковариационная матрица rj и |. Как следует из соотношения G), регрессия М [rj/ ? ] полностью определяется кор- корреляционными характеристиками совместного распределения величин rj и |. Конечно, регрессия может оказаться линейной не только для совместно нормаль- нормальных случайных величин. В любом случае мы будем называть соответствующую связь между переменными корреляционной. 3. Переменные х и у — детерминированные, неслучайные переменные и в экспери- эксперименте измеряются абсолютно точно. При этом уже факт наблюдения пар конкретных значений (X, У) в одном и том же опыте определяет положительный ответ на первый вопрос, и речь может идти только об установлении формы зависимости у и х. Здесь возможны различные постановки и способы решения — интерполяция, сгла- сглаживание и т. п. Это задачи классического анализа и мы на них останавливаться не бу- будем. Ниже будут рассмотрены статистические процедуры, исследующие ситуации 1 и 2. Учитывая важность для приложений случая совместной нормальности изучае- изучаемых случайных величин и их линейных описаний, основное внимание будет уделено исследованию корреляционных связей. § 1. Случайные переменные. Корреляционные связи Пусть в эксперименте п наблюдаются случайные переменные | = (?] & • • • fn) и 7j. Проведено N опытов и получена выборка из совместного закона распределения величин (|, rj), (Х,,У,), .... (XN,YN), A) здесь X,- = (Х'),-=1,...,лг, ,=!,...,„.
§ 1. Случайные переменные. Корреляционные связи 201 Требуется по выборке A) сделать заключение о наличии или отсутствии зависи- зависимости между переменными (и»/и оценить эту зависимость. 1.1. Значимость коэффициента корреляции Исследование вопроса о наличии связей между г) и f мы начнем с простейшего случая п= \. Тогда ? = ? и г] — скалярные случайные величины, а выборка A) — это выборка (ЛГ|, Y\),... , (Xn, YN) из совместного закона распределения пары (?, 7/). Отличие от нуля коэффициента корреляции р^ пары (?, г;) является достаточно надежным показателем наличия зависимости между (и»|. Эта зависимость носит корреляционный характер, т. е. может быть удовлетворительно описана линейной функцией в том смысле, что имеется четко выраженная тенденция к линейному изме- изменению г) относительно ?. Точнее, в этом случае величина ц представима в виде и вклад остатка ? в рассеяние rj тем меньше, чем ближе \р^| к 1. В случае \р^\ — 1 между ? и 7/ имеется жесткая линейная связь, позволяющая с вероятностью 1 восста- восстанавливать неизвестные значения г) по измеренным значениям ?. Если pzv = 0, то это, вообще говоря, еще не свидетельствует об отсутствии за- зависимости между ? и г], но является надежным свидетельством в пользу отсутствия линейной зависимости. Значит, для идентификации наличия или отсутствия линейной связи между скаляр- скалярными случайными величинами достаточно уметь по выборке A) делать заключение о равенстве или неравенстве нулю коэффициента корреляции p^v пары (?, г}). Пусть гх — выборочный (эмпирический) коэффициент корреляции пары (?, rj) N 1 Xl~')Y'~i)==m C) N N Он является оценкой истинного, но неизвестного коэффициента корреляции Если p^i = 0, то чисто случайные колебания г# могут привести к значению г# ф 0. Какже выяснить, равен или не равен нулю коэффициент корреляции р по наблюдению за значением Гц, вычисленному по формуле C)? Теорема. Пусть (?, г;) — двумерная нормальная случайная величина, (Xt, Yt)f=l — выборка значений (?, rj), полученная в эксперименте, и г^ — выборочный коэффициент корреля- корреляции C). Тогда, если р = 0,то величина trN_2, даваемая соотношением D) имеет распределение Стьюдента с N -2 степенями свободы.
202. . Глава XLV. Статистическое исследование зависимостей Эта теорема дает возможность построить процедуру статистической проверки ги- гипотезы о значимости коэффициента корреляции (т. е. гипотезы об отличии р от нуля) следующим образом. Так как при фиксированном значении N > 2 величина D) моно- монотонно возрастает (рис. 1), то «маленьким» значениям г# отвечают «маленькие» значе- значения f. Если истинный коэффициент корреляции р равен нулю, то его эмпирический аналог г# в подавляющем большинстве случаев будет «маленьким», а, следо- следовательно, в подавляющем большинстве случаев должна быть маленькой и вели- величина f. Зададим некоторый (близкий к нулю) уровень значимости н и найдем значение tx такое, что -1 ti е , -J-. / \ L 1 1 Рис.1 При этом для rN будет иметь место со- соотношение ы y/N-2 Если окажется, что |г#| > tx/yjN — 2 + t$, то гипотеза о равенстве нулю коэффи- коэффициента корреляции должна быть признана не согласующейся с экспериментальными данными. Еслиже|г#| < tH/\/N — 2 +1%, то можно считать, что р = 0 и, следователь- следовательно, величины ? и г) независимы (напомним, что мы рассматриваем случай совместной нормальности ? и т), когда равенство нулю коэффициента корреляции эквивалентно независимости). Если совместное распределение (?, г;) не является нормальным, то основная тео- теорема, позволившая построить критерий значимости для коэффициента корреляции, уже оказывается неверной. В этом случае рекомендуется использовать статистику Фишера Z, определяемую соотношением 2 = о ln 1—7"- <5) 2 1 -rjy Установлено, что уже при достаточно небольших значениях N величина Z при- приближенно нормальна с параметрами DZ 1 где р — истинный коэффициент корреляции величин (и»/. Учитывая монотонность функции Z = Z(r) на промежутке (-1, 1), мы можем, как и выше, построить проце- процедуру статистической проверки гипотезы о значимости коэффициента корреляции. Пусть р = 0. Тогда Z = N[0; \/(y/N - 3)]. Для к < 1 определим Zx > 0 так, что При этом Р{|г| < th ZH} > 1 - х. '^Если A/2) ln(l+r)/(l-r) = z.Tor = (ег — е z)/(ez+e z) — th z —тангенсгиперболическийz. Всилу нечетности и монотонности функции th z неравенство \z\ < ZK эквивалентно неравенству |r^r| < th Zx.
§ 1. Случайные переменные. Корреляционные связи 203 Гипотеза р = 0 принимается на уровне значимости к, если выполняется неравен- неравенство \гм\ < th Zx; в противном случае признается значимым отличие коэффициента корреляции от нуля. Таким образом, если предложенные выше критерии признали коэффициент кор- корреляции значимо отличным от нуля, то можно сделать вывод о наличии зависимости между случайными величинами г) и ?, и чем ближе значения коэффициента корре- корреляции к единице, тем лучше идентифицируемая зависимость описывается линейным соотношением B). Если отличие от нуля коэффициента корреляции признано незначимым, то в слу- случае совместной нормальности это, как уже отмечалось выше, свидетельствует о неза- независимости наблюдаемых случайных величин. В случае же, когда совместное распре- распределение отличается от нормального, между наблюдаемыми случайными величинами возможно наличие зависимости, причем не исключается даже жесткая функциональ- функциональная связь. 1.2. Множественная регрессия. Метод наименьших квадратов Пусть теперь \ = (&)"=1 — векторная случайная величина. Если / ( f) — некоторая неслучайная функция п переменных, описывающая связь между г\ и \ так, что г\ представима в виде С, Ж = о, F) то естественно оценивать качество описания случайной величины г\ функцией /(?) с помощью «остатка» ? — чем меньше (в точно определенном смысле) ?, тем лучше / ( \) описывает величину -q. Если в качестве критерия малости ? взять ее дисперсию, то наилучшей из всех функций / (|) будет удовлетворяющая условию f )J min DC = min M(r) - /(f )J. Оказывается, что при достаточно естественных предположениях о законе распре- распределения совокупности (rf, f), наилучшая (в смысле минимума дисперсии остатка) функция /(f) существует и, как и в одномерном случае, совпадает с условным сред- средним случайной величины г\ относительно \. Теорема. Если существует условное среднее <р (|) = М [rf/1 ], то Рассмотрим = M[(V - <pf + 2fo - tp)(tp - f) + (tp - fJ] = = M(r, - <pJ + M(<p - fJ + 2M(rj - <p)(<p - /). G) Последнее слагаемое равно нулю. Чтобы не загромождать изложение выкладками, покажем это для частного случая, когда п = 1 и (?, г;) непрерывна.
204 , Глава XLV. Статистическое исследование зависимостей Пусть g{t)(x, у) — совместная плотность величин (ир д^/^у/х) — условная плотность п относительно ?. Тогда <р(О = M[r]/(\ = J д„кШУ dy. (8) R С учетом д^(х, у) = gv/t(y/x)g{(x) получаем, что M(V - <р@)Ш ~ №) = Ц 9&(*> У)(У - Ф))Ш - /И) dx dy = 9r]li{y/x)9i{x){y - ^(ж))(^(ж) - f(x)) f f = j gt(x)(<p - f) dx J J R R Но в силу соотношения (8) внутренний интеграл равен нулю, откуда и следует искомое. Теперь соотношение G) принимает вид - №? = m[v - <p(i)]2 + M[v(i) - f(z)]2, (9) откуда (в силу неотрицательности М[<р(?) - /(f)] ) немедленно заключаем, что Таким образом, с точки зрения критерия минимума дисперсии остатка (, наилуч- наилучшее описание зависимости п от f дается линией регрессии v на f Отметим, что соотношению A0) отвечает дисперсионное соотношение, позволяющее оценивать степень тесноты связи между т/ и ?. Имеет место следующее утверждение. Теорема (о разложении дисперсии). В условиях предыдущей теоремы Dr) = D<p + D(, A1) где Dr) = M\r) - Mr)]2; Dtp = M[<p(l) -Mr)]2; DC, = M[r) - <p(?)]2. 4 Для доказательства соотношения A1) подставим в тождество (9) /(?) = Мг\ и заметим, что М(Р(О = / ^(ж)^(ж) dx = gx(x) dx / д11ц{у/х)у dy = R R R = // 9&{х, У)У dx dy = Mi). > R2 Разделим обе части соотношения A1) на Dr) Dr] Dr]
§ 1. Случайные переменные. Корреляционные связи 205 и введем величину б2/? — корреляционное отношение величины г\ относительно ? — равенством Drj Тогда соотношение A1) запишется в виде A3) откуда видно, что если показатель A2) близок к единице — связь между г\ и ? достаточ- достаточно тесная в том смысле, что среднее значение г\ закономерно меняется с изменением ?, если же б2,? близко к нулю, то такой тенденции нет — основной вклад в изменение rj вносит случайный остаток (. Важным случаем регрессионных связей A0) являются линейные зависимости " Щ\) + «2F - Мб) + • • • + «„(?„ - М?„) + MV. A4) Как уже отмечалось выше (см. соотношение G)), в случае совместной нормальности (?, 7/) регрессия всегда линейна. Она может оказаться таковой и в других случаях. Поскольку любая регрессия (р(%), независимо от того, линейна она или нет, должна удовлетворять условию <р(%) = argminAf[r/ -/(?)] , то коэффициенты а = («i, a~i,... , ап) линейной регрессии A4) могут быть найдены следующим обра- зом. Положив а = argmin М\г] — Мг\ — Y2 ^»(?» - М&) , заметим, что s, L i=i J Необходимое условие экстремума описывается набором условий dSi A5) Если воспользоваться матричными обозначениями, то система линейных уравне- уравнений A5) может быть представлена в виде [ A6) где K[f, ?] — ковариационная матрица вектора ?, а К [г;, f ] — матрица ковариаций Лемма. Пусть компоненты вектора ? линейно независимы. Тогда ковариационная мат- матрица К [?, ? ] невырождена и вектор коэффициентов линейной регрессии дается соотно- соотношением a = K-1[?,?]K[r/,?]. A7)
206 Глава XLV. Статистическое исследование зависимостей •^ Пусть компоненты вектора ? линейно зависимы, тогда существует ненулевой вектор А = (Ai)"_j такой, что При этом ° = 0. A8) Заметим, что функция D(\\, ... , An) = D[%2 Aj&] неотрицательна и (в силу A8)) достигает в ненулевой точке А своего наименьшего значения. Поэтому однородная система (необходимое условие экстремума!) = О A9) имеет ненулевое решение, а отсюда следует вырожденность ковариационной матрицы Пусть теперь матрица К[?, f ] вырождена. Тогда система A9) имеет ненулевое решение А °. Умножая соотношение A9) на ( А °) , заключаем, что (Г)тк[|,|]Г = о, откуда (см. соотношение A8)) и значит с вероятностью единица компоненты & линейно зависимы. > Еще раз отметим, что независимо от того, линейна регрессия или нет, мы можем попытаться описать связь величины rj с величинами {?;}"=! линейным соотноше- соотношением A4), коэффициенты которого даются равенством A7). Это будет наилучшее с рассматриваемой точки зрения линейное приближение к линии регрессии г\ на |, совпадающее с ней в случае, когда регрессия линейна. Пусть (р ( ?) — регрессия г\ на \, I ( ?) — линейная функция A4) с коэффициента- коэффициентами A7). Рассмотрим корреляцию p^((). Оказывается, функция регрессии <р(?) дает наилучшее описание случайной величины г\ не только с точки зрения минимума дисперсии остатка, но и имеет наибольший коэффициент корреляции с 7/. Теорема. Пусть f ( f) — произвольная функция, (р (|) — регрессия г) на ?. Тогда при этом р2^ = в^ (см. соотношение A2)).
§ 1. Случайные переменные. Корреляционные связи 207 Рассмотрим корреляцию случайной величины г) и линейной функции / ( \) (соот- (соотношение A4)) и заметим,что если регрессия <р(?) — линейна,т.е. <р(?) = *(!)» то B0) Если же регрессия <р(?) линейной не является, то, как уже было отмечено выше, w ^ Ptf" величина р2цХ, определяемая правой частью соотношения B0), в этом случае описывает качество представления случайной величины т\ линейной функцией переменных | и называется множественным коэффициентом корреляции. Таким образом, множественный коэффициент корреляции р2цХ в случае линейной регрессии (<р(?) = *(?)) совпадает с корреляционным отношением 0^/г. Если же регрессия нелинейна, то он отличен от &1/г, заключен между 0 и 1 и характери- характеризует степень представимости г] линейной комбинацией величин \ — при ргцХ — О корреляционная связь между ц и линейными комбинациями \ отсутствует, при р2х = 1 — имеется жесткая функциональная связь между г) и компонентами f: с веро- вероятностью 1 г) является линейной комбинацией компонент f. 1.3. Значимость множественного коэффициента корреляции В практической ситуации, имея дело с выборочными значениями из закона распре- распределения совокупности (г7, |), мы не имеем возможности определить точное значение множественного коэффициента корреляции р*(, а можем лишь найти его выборочный аналог. При этом, как и в случае с парным коэффициентом корреляции, возникает задача установления значимости выборочного коэффициента множественной корре- корреляции, для решения которой необходимо знание закона распределения последнего. Пусть в эксперименте получена выборка из закона распределения совокупности (ГЬХ,), A2,Х2), ..., (YN,XN). B1) Эмпирический аналог гч/ множественного коэффициента корреляции рцХ может быть построен на основе соотношения B0) заменой фигурирующих там дисперсий их выборочными аналогами, найденными по выборке B1) N- j=\ N j=\ _ N где Y = jj 5D Yj и а« ~ оценки A7) коэффициентов регрессии A4), полученные i=i методом наименьших квадратов. В предположении совместной нормальности (г;, 0 установлено, что если множе- множественный коэффициент корреляции равен нулю, то квадрат его эмпирического ана- аналога имеет известное распределение. Этим можно воспользоваться для построения процедуры проверки значимости rvi.
208 Глава XLV. Статистическое исследование зависимостей На практике для установления значимости отличия эмпирического коэффициента множественной корреляции от нуля пользуются тем, что величина имеет распределение Фишера с (п, N — п - 1) степенями свободы при условии спра- справедливости сделанных выше предположений о равенстве нулю рц\ и совместной нор- нормальности (г;, |). По заданному уровню значимости к определяют величину FK такую, что P{Fr < Fx} > \ — к. Если расчетное значение Fr оказывается меньше табличного FK — гипотеза о незначимом отличии гч/ от нуля считается согласующейся с результатами эксперимента и рц\ полагается равным нулю. В противном случае считается, что коэффициент Рц1 отличен от нуля и множественная регрессия A4) дает представление о характере изменения величины т\ с изменением \. §2. Случайные переменные. Нелинейные зависимости Пусть (г;, |) — наблюдаемые в эксперименте случайные переменные. Предположим, что на основе рассмотрений предыдущих пунктов сделан вывод о незначимом отличии от нуля выборочного коэффициента корреляции (парного или множественного). Как уже неоднократно было отмечено, это дает основание для вывода об отсутствии ли- линейной зависимости между т\ и ?, но не исключает возможного наличия зависимостей нелинейных (в том числе и жестких функциональных) между ними. Для идентификации этих зависимостей изучим корреляционное отношение б2/*¦, введенное соотношением A2). Оно обладает следующими свойствами: 1. Величина корреляционного отношения &1ц заключена между нулем и едини- единицей. Если отношение Q2, ? близко к нулю — закономерное изменение переменной г\ в зависимости от \ отсутствует. Если же О*,т близко к 1 — средние значения г\ с высокой степенью надежности могут быть найдены по известным значениям ?. 2. Корреляционное отношение QI/f не меньше квадрата коэффициента корреля- корреляции (теорема пункта 3.1.2) Знак равенства достигается тогда и только тогда, когда между переменными г\ и \ имеется корреляционная (т. е. хорошо описываемая линейными соотношениями) связь. Как и при анализе линейных зависимостей, достаточно уметь строить эмпиричес- эмпирический аналог Н^ величины &1/* по выборке B1) и оценивать значимость отличия этого выборочного аналога от нуля. Обе задачи оказываются технически более сложными, чем аналогичные для парного и множественного коэффициентов корреляции. Уже процедура построения эмпирического аналога в2 ,* предъявляет специальные требо- требования к выборке B1) — в соответствии с A2) мы должны быть в состоянии вычислить эмпирический аналог (оценку) величины D<p, описывающей рассеяние т/ относитель- относительно линии регрессии <р (|). А для этого необходимо, чтобы экспериментальные данные позволяли строить линию условных средних Y ( ?). Возможность построения линии
§ 2. Случайные переменные. Нелинейные зависимости 209 условных средних может быть обеспечена, например, наличием в выборке B1) по- повторных измерений величины 7/: каждому из наблюденных значений ? = X* отвечает несколько измерений J) (Х„ Г,1), ... , (Хь r,ri), (Х2, Г2'),... , (Х2, Yp), ... , (Хлг, Ij}),... , (Х„, Г^). Либо выборочные данные должны допускать объединение наблюденных значений переменной ? = Xj в группы так, чтобы каждому групповому выборочному среднему отвечало несколько значений переменной 7). В любом из указанных случаев эмпирическое корреляционное отношение может быть подсчитано по формуле „2 «=) где F, — среднее наблюденных в г-й точке значений т\ (либо групповое среднее игре- игреков), у ¦ - - V Yj Y — среднее всех наблюденных значений Y^ У - Для проверки гипотезы о значимом отличии от нуля величины Щ^ воспользуемся тем фактом, что статистика Fg, задаваемая соотношением имеет приближенно распределение Фишера с (N—\, Y2ri~N) степенями свободы при условии, что все сечения (групповые данные) нормальны с одинаковой дисперсией, и в предположении, что 6^ = 0. В силу монотонности Fg как функции перемен- переменной Н*и это обстоятельство дает возможность обычным образом строить процедуру проверки интересующей нас гипотезы. По заданному уровню значимости х. определяем Fx так, что При этом и гипотеза о значимом отличии от нуля эмпирического корреляционного отношения признается согласующейся с опытными данными, если 2
210 , Глава XLV. Статистическое исследование зависимостей В этом случае можно считать, что переменные г) и ? связаны некоторой зависимо- зависимостью, вообще говоря, нелинейной. Представление о ней может дать линия условных средних, построенная по экспериментальным точкам (XbF,), (X2)F2), ..., (XN,YN). В противном случае корреляционное отношение признается равным нулю и, сле- следовательно, можно считать, что закономерного изменения среднего значения пере- переменной г} в связи с изменением значений переменных ? нет. §3. Неслучайные переменные. Линейные по параметрам регрессионные модели 3.1. Основные допущения Пусть теперь Х\, Х2, ... , хп — неслучайные переменные, связанные с неслучайной переменной у соотношением У = f(z\,x2,... ,xn; ах,а2,...,ак), A) где функция /(х, а) известна с точностью до параметров. В эксперименте полу- получены значения (Y, X) переменных (у, х). Предполагается, что модель измерений аддитивна относительно ошибки измерений е и каждое измерение Y складывается из значения /(X) и ошибки измерения е Y = /(X; а) + е. B) При этом допускается проведение нескольких измерений в одной и той же точке X, так что выборка измеренных значений имеет вид 1?=/(Х;;«)+^ C) Здесь нижний индекс показываетточку, в которой проведено измерение (г=1,2,..., N), верхний — номер измерения в г-й точке м = 1, 2,... , г,-, ]Г) г,- = то). 4 »=i ' Требуется найти оценки неизвестных параметров at, s = 1, 2,... , к, и выска- высказать некоторое обоснованное суждение о качестве найденного описания зависимости величины у от переменных Х\,... ,хп. Последняя задача ниже будет уточнена, однако сразу заметим, что проблему подбо- подбора наилучшего класса параметрических функций /(х; а), выбираемых для построения зависимости A), мы здесь не обсуждаем. Предполагается, что этот класс определен из внестатистических соображений. В дальнейшем ограничимся, чтобы избежать технических осложнений в выклад- выкладках, линейными по параметрам функциями /(х; а) = а\<р\(х) + ... + а*^(х). Функ- Функции <рг(х), $ = 1, 2,... , fe, будем предполагать линейно независимыми. Тогда модель измерений C) запишется в виде к > е/. D) Считая ошибки е\ попарно некоррелированными случайными величинами (что со- соответствует предположению о независимости измерений) с нулевым математичес- математическим ожиданием (отсутствие систематических ошибок) и одинаковой дисперсией а2
§3. Неслучайные переменные. Линейные по параметрам регрессионные модели. 211 (равноточность измерений), будем искать неизвестные параметры {а,}*=], исходя из принципа минимизации суммы квадратов ошибок2* N a = argmin E) Заметим, что в силу предположения об отсутствии систематических ошибок изме- измерения (Me- = 0) из соотношения B) следует MY = /(X; а). F) В соответствии с принятой терминологией соотношение F) позволяет назвать функцию /(X; а) функцией регрессии, параметры а — параметрами регрессии; в частности, для линейной по параметрам модели D), параметры а будем называть коэффициентами регрессии. 3.2. Оценивание коэффициентов регрессии методом наименьших квадратов Для удобства дальнейшего изложения и обозримости выкладок перейдем от скалярной формы записи задачи E) к векторно-матричной, для чего введем следующие обозначе- обозначения: Y — вектор измерений значений переменной у, ё — вектор ошибок измерений, ф(х) — вектор параметров. Все векторы — матрицы-столбцы, Y{ \ r" 4 Ujr/ a = ОЧ Тогда исследуемая зависимость A) представима в виде G) где символом Ат обозначена матрица, транспонированная по отношению к А (в дан- данном случае (рт — матрица-строка). Модель измерений D) запишется так Y = F • а + ё, (8) 2* В предположении совместной нормальности ошибок е/ метод наименьших квадратов E) является естественным следствием метода максимального правдоподобия.
212 Глава XLV. Статистическое исследование зависимостей где F — матрица формата тх к »=1 имеющая следующую структуру F = i) ¦2) 1) 2) л) ••• J r\ — строк Г2 — СТРОК — строк Метод наименьших квадратов E) в матричной форме примет вид ?T-? = (Y-F-a)T(Y-F-a)-»min, (9) а необходимое условие экстремума grad ет • е = О после несложных выкладок приводит к соотношению FTF-a = FT-Y. A0) Отметим, что функция ётё как функция параметров {ая} является неотрицатель- неотрицательно определенной квадратичной функцией, а потому достигает своего наименьшего значения. Поэтому ai^gmin iTe содержится среди решений системы A0). Система линейных относительно а уравнений A0) носит название системы нормальных уравне- уравнений метода наименьших квадратов. Если матрица FTF оказывается невырожденной, то A0) имеет единственное решение, задаваемое соотношением а= (FTF) ^Y, (И) которое определяет оценки метода наименьших квадратов коэффициентов регрессии. Отметим, что линейная независимость функций <Pj(x) не гарантирует невыро- невырожденности матрицы FTF, в то время как их линейная зависимость приводит к вы- вырожденности указанной матрицы. Связано это с тем, что вырожденность или невы- невырожденность FTF определяется наличием или отсутствием линейной зависимости системы столбцов матрицы F, которые представляют собой упорядоченные значения базисных функций <р/(х) в точках, где проводятся измерения, с учетом их кратности Г2 rN fl = <p2(x2) <p2(x2) r2 rN • /* = r\ r2 rN.
§3. Неслучайные переменные. Линейные по параметрам регрессионные модели 213 Матрица FTF является матрицей Грама векторов /;- — ее элементами являются ска- скалярные произведения (/,-, /у). Она невырождена тогда и только тогда, когда векто- векторы /,• линейно независимы. Ясно, что для линейно зависимых функций <Pj(x) векторы /j линейно зависимы. Линейная независимость <Pj(x), как показывает следующий простой пример = х\ (р2(х) = х2; (р3(х) = х\ «2 = 1; г, = г2 = г3 = 2, линейной независимости векторов /;- не гарантирует. Однако, даже если матрица FTF — вырождена, система нормальных уравне- уравнений A0) все равно разрешима, и ее решение (т. е. оценки коэффициентов регрессии) могут быть найдены с помощью обобщенного обращения матрицы FT F. 3.3. Свойства оценок коэффициентов регрессии Пусть ошибки измерений е\ совместно нормальны с нулевым средним и ковариацион- ковариационной матрицей К[ё, ё] =¦ <т21, где а2 — величина, характеризующая точность каждого N отдельного измерения, I — единичная матрица порядка m = Ylri- Тогда стати- стические свойства оценок A1) коэффициентов регрессии описываются следующим утверждением. Теорема. Оценки A1) коэффициентов регрессии совместно нормальны с вектором средних Ма = а и ковариационной матрицей K[d, a] = a2(FTF) . М В силу модели (8) из формулы A1) получаем, что о= (FtF)"'ftY= 1 1 откуда следует совместная нормальность компонент вектора оценок а, так как они являются линейными комбинациями нормальных величин. Далее Md=a+(FTF)~]FT-Me=a, K[a,a]=M[a-Ma][d-Ma]T=M[(FTF)~lFT'i][(FT F)~]FT-if= Заметим, что утверждения теоремы о несмещенности оценок A1) и о корреляци- корреляционной матрице не зависит от предположения о нормальности ошибок. Точно так же не зависит от этого предположения некоторое свойство оптимальности оценок D), описываемое теоремой Гаусса—Маркова. Теорема (Гаусса—Маркова). Среди всех линейных несмещенных оценок коэффициентов ре- регрессии оценки A1) — наилучшие в том смысле, что обладают наименьшим рассеянием.
214 Глава XLV. Статистическое исследование зависимостей 3.4. Оценивание параметра <т2 Как правило, параметр о2, характеризующий точность каждого отдельного измерения при построении регрессионных зависимостей не известен и подлежит оцениванию по тем же исходным данным, по которым была построена модель. Это можно сделать различными способами. Некоторые из них мы приведем ниже. Если а — вектор оценок A1), то модель принимает вид У = /(х)а, A2) при этом сумма квадратов ошибок, допущенных при замене экспериментальных дан- данных Y/, данными, рассчитанными по модельному соотношению G), дается соотно- соотношением (Y — Fd)T(Y — Fa) — минимальным значением суммы квадратов отклонений модели от расчетных данных. Имеет место следующая теорема. Теорема (об оценивании <г ). Величина тп — к является несмещенной оценкой неизвестной дисперсии а . В силу Y=Fa+e и числитель соотношения A3) может быть представлен в виде (Y - F a)T(Y - F о) =(ё - F(FtF)"'ft if(i - F(FtF)"'ft i) = Т- F(FTF)FT)T(I - F(FTF)FT)e, N где I — единичная матрица формата то х то, то = ]Г) г,. »=i Далее (I - F(FTF)~1FT)T = I - F(FTF)-'FT и tF)"'ftJ = I 2F(FrF)"lFr + F(FTF)FTF(FTF)~1Fr - F(FtF)"'ftJ = I - 2F(FrF)"lFr + F(FTF)FTF(FTF)~1Fr = = i-f(ftf)"'ft, поэтому (Y - F a)T(Y - F a) = iT(l - F(FtF)~'ft) ё. Вычисляя математическое ожидание обеих частей последнего соотношения и учиты вая некоррелированность компонент вектора ошибок ё, получим, что M(Y - F a)T(Y - F a) = a2 Tr(l - F(FTF)FT), где Тг А — след матрицы А, обладающий следующими свойствами Тг(А + В) = Тг А + Тг В, Тг(АВ) = Тг(ВА) последнее — (для согласованных относительно умножения матриц).
§3. Неслучайные переменные. Линейные по параметрам регрессионные модели 215 Отсюда немедленно следует, что Tr(l - F(FrF)-'Fr) = J2 П ~ Tr(F(FTF)-'Fr) = »=i t=l t=l Если дополнительно вектор ошибок измерений считать нормальным с нулевым вектором средних и ковариационной матрицей о*21, то, используя метод максималь- максимального правдоподобия, можно получить отличную от A3) оценку параметра а2 (Y-Fdf(Y-Fd)^ т Оценка A4) свойством несмещенности обладать уже не будет, однако можно показать, что она несмещена асимптотически. 3.5. Адекватность модели Пусть а — оценки коэффициентов регрессии A1), а зависимость переменной у от пе- переменных х принимается в виде у = (рТ(х)а. A5) Важный вопрос (о соответствии построенной нами модели A5) исследуемому про- процессу) — насколько удачно соотношение A5) позволяет прогнозировать значения переменной у по известным значениям переменных х ? Мы не задаемся целью установить, является ли найденная нами зависимость «ис- «истинной» или «правильной» — исследование этого вопроса лежит вне плоскости наших рассмотрений, а мы просто хотим получить ответ на вопрос о том, насколько хорошо найденная нами зависимость заменяет реальный эксперимент. Уточним постановку задачи. Будем называть остаточной ошибкой модели величи- величину (Y - Fa)r(Y - Fa), т. е. сумму квадратов отклонений наблюденных в эксперименте значений Y переменной у от прогнозируемых в этих же точках значений, получен- полученных с помощью соотношения A5). Если через Y обозначить вектор, составленный из средних значений измерений переменной у в точках Xj, компоненты которого повторяются столько раз, какова кратность (т. е. количество г,-) измерений в * -й точке, то остаточная ошибка может быть представлена в виде (Y - Fa)r(Y - Fa) = ( Y - Fa)T(Y - Fa) + (Y - Y)T(Y - Y). A6) А Положим Y-Fa = Y-Y + Y-Fan рассмотрим (Y-Fa)T(Y-Fa) = [(?- Fa) + (Y- Y]T[(Y- Fa) + (Y-
216 Глава XLV. Статистическое исследование зависимостей Легко убедиться в том, что два последних слагаемых равны нулю. Например, (Y-Yf(Y-Fa) = J2W -^(Fi-^aV «,s=l ^ l=\ = Т.(ъ - E «*) В полученном разложении остаточной ошибки модели первое слагаемое описывает отличие найденной нами зависимости от эмпирической регрессии, второе — рассея- рассеяние экспериментальных данных относительно эмпирической регрессии, т. е. ошибку эксперимента. Ясно, что модель тем лучше, чем меньше первое слагаемое и чем ближе остаточная ошибка модели ко второму слагаемому. Остаточная ошибка, описывает рассеяние экспериментальных данных относительно модели и не может быть меньше второго слагаемого — ошибки эксперимента. Чем меньше разница между остаточ- остаточной ошибкой и рассеянием экспериментальных данных относительно эмпирической регрессии, тем лучше модель представляет наблюденные в эксперименте значения у. Будем говорить что модель адекватно описывает результаты эксперимента, или просто, что модель адекватна, если в подавляющем большинстве случаев остаточная ошибка модели близка к ошибке эксперимента. Статистические свойства слагаемых из соотношения A6) описываются следующей теоремой. Теорема. Пусть ошибки измерений совместно нормальны с нулевым вектором средних и ковариационной матрицей К[е, е] = a2l. Тогда - статистики (Y - Y)T(Y - ?) и ( Y - Fa)T( Y - Fa) независимы; (Y-Y)T(Y-Y) , * — статистика 5 имеет распределение х с f = 2_, Г{ - N степе- нями свободы, при этом величина 2 5эксп — (Y-f)T(Y-?) является несмещенной оценкой параметра а2. Если гипотеза об адекватности модели A5) справедлива, то дополнительно стати- статистика (Y-Fa)T(Y-Fa) имеет х2 -распределение с N — к степенями свободы. Сформулированная теорема позволяет установить, что величина Fad, описываемая отношением (Y - Faf (Y-Y)T(Y-Y)(N-k) D5)
§3. Неслучайные переменные. Линейные по параметрам регрессионные модели 217 в случае справедливости гипотезы об адекватности имеет распределение Фишера с степенями свободы. / n \ I N - k, Yl ri'¦ ~ N ) Задавая уровень значимости и, определяем величину Fx так, что P{Fad ^ Fx} ^ н. Если рассчитанная по результатам эксперимента величина A8) окажется меньше, чем Fx, то гипотезу об адекватности следует признать согласующейся с опытными данными, так как в этом случае с надежностью, не худшей чем 1-й, остаточная ошибка модели ненамного превышает ошибку эксперимента. В противном случае ги- гипотезу об адекватности следует признать плохо согласующейся с опытными данными, а в постулируемую модель внести изменения. 3.6. Точность и надежность оценивания коэффициентов регрессии Для адекватных моделей представляет интерес вопрос о качестве оценок A1) коэф- коэффициентов регрессии: как велик может быть диапазон их надежного (для заданной степени надежности) варьирования? Поскольку оценки коэффициентов регрессии являются, вообще говоря, зависимыми случайными величинами, то желательно уметь получать информацию не только об индивидуальной, но и о совместной точности их оценивания. Мы рассмотрим ниже процедуры определения точности оценивания коэффици- коэффициентов регрессии как в предположении, что параметр о2 известен точно, так и считая, что он оценен по результатам эксперимента. 1. Из результатов п. 3.2.3 следует, что вектор оценок а нормален с вектором сред- средних а и ковариационной матрицей К[а, а] = a2 (Fr F) . При точно известной вели- величине а2 этой информации достаточно для построения доверительных интервалов для каждого из коэффициентов регрессии в отдельности и для совместного определения точности их оценивания. Индивидуальные доверительные интервалы Каждая из компонент а* вектора а нормальна со средним а{ и дисперсией <т\ = o-2(FTF)i{ , где (FrF)l4 — г-й диагональный элемент матрицы (FTF) . Задавая уровень доверия *?, легко находим (см. п. 1.3.1) доверительные границы для коэффи- коэффициентов регрессии а,- а,- 6i <«j ^ai + Si; величины 6i определяются из условия Р{|а,- - а*| < #,} = х. и задаются равенством \ A9) где хх — решение уравнения F(x) = A + «)/2, F(x) — функция стандартного нор- нормального с параметрами @,1) распределения. Совместные доверительные границы Вообще говоря (если матрица (FTF) не является диагональной), оценки коэффи- коэффициентов регрессии зависимы. Назовем главным эллипсоидом рассеяния случайного вектора а относительно а эл- эллипсоид Ее, задаваемый неравенством ЕЕ = {а € R\ (о - af(FTF)(a-a) < е2}. B0) Величина е называется радиусом эллипсоида. Заметим, что уравнение B1)
218 Глава XLV. Статистическое исследование зависимостей при заданной н однозначно разрешимо относительно е. А В силу совместной нормальности компонент вектора а, уравнение B1) имеет вид j— J ехр|-^(о - ff)r(FTF)(o - а)\ da = х. Сделаем в интеграле замену переменных, приводящую квадратичную форму, стоящую в показателе степени у экспоненты, к сумме квадратов3'. Последнее соотношение примет вид 1 * / 1 л ( ^ УЧ exPl ~~ 2^ yi * dyidyi • ¦' dyk ~ K- t=i Переходя к сферическим координатам в 1R* и полагая У\ = г sin (pk-\ sin (рк-2... sin <p2 sin <p\, У2=г sin <pk-\ sin <Pk-2 ... sin <p2 cos <p\, УЗ =Г Sin (pk-\ Sin (pk-2 ... COS(P2, Ук-\=Г Sin (pk-\ COS <pk-2, yk =r cos (pk-u где O^r^e, O^v7!^ 2тг, 0 ^ <pj ^ я, j = 2, 3, ... , к, из соотношения B2) получим 2w -к 1 I d<p\ I sin (f2 d(f2 ¦¦. I sin* 2 <pk-\ d(pk-i I rk ' exp I J dr = x. о о Учитывая, что / sin* ' <ps d<ps = где F(s) — гамма-функция Эйлера, для определения радиуса главного эллипсоида рассеяния е получаем соотношение /-r-)dr = x, B3) ГI — In \Л/ которое доказывает утверждение. > Если задать доверительную вероятность у. {и. близка к единице) и из уравнения B3) найти соответствующий ей радиус е, то совместное рассеяние оценок а коэффициен- коэффициентов регрессии будет описываться главным эллипсоидом Е?. Это всегда возможно в силу симметричности матрицы F T F.
§3. Неслучайные переменные. Линейные по параметрам регрессионные модели -Д19 2. Если величина параметра о2 неизвестна, то, заменив в полученных выше со- соотношениях для индивидуальных или совместных доверительных областей значение параметра о2 какой-нибудь его оценкой, мы получим приближенные индивидуальные или совместные доверительные области. Построение точных доверительных областей в этом случае может быть осуществле- осуществлено следующим образом. Индивидуальные доверительные границы Рассмотрим величины txm_k, i = 1, 2,... , к, определяемые отношением Ы-к — где s — оценка параметра а2, даваемая соотношением A3). Так же, как и в п. 1.3.1, можно установить, что каждая из этих величин имеет распределение Стьюдента с ( N \ I ]Г) г< - к) степенями свободы. Отсюда для заданной доверительной вероятности 4=1 ' к обычным образом получаем, что точность оценивания t-го коэффициента регрес- регрессии а,- описывается двойным неравенством о,- - sА,\/(?Т?)~1 < а,- ^ а,- + sA,^/(F'F). B4) Величина Д„ находится по заданному значению а из условия Совместные доверительные границы Индивидуальные доверительные интервалы B4) не дают исчерпывающей информа- информации о совместной оценке точности определения коэффициентов регрессии из-за воз- возможной зависимости последних. Для получения доверительной области в этом случае заметим, что в силу совмест- совместной нормальности компонент а* вектора оценок а величина {d-a)TFTF{d-a) имеет распределение х2 с * степенями свободы. По теореме из предыдущего пункта величина (Y - Fa)r(Y - Fa) N (N \ имеет распределение х2 с ( ^2 г« ~ * ) степенями свободы и не зависит от величины, даваемой формулой B5). Следовательно их отношение (a-a)rFrF(a-«)(?>,-*) Fk,M-k- (Y-Fa)T(Y-Fd)k B6) имеет распределение Фишера с I к, ]Г) Г{ — к) степенями свободы. Зададим довери- v »=i / тельную вероятность « и определим величину Fx так, что P{Fk,M-k < Fx} > и. B7)
220 Глава XLV. Статистическое исследование зависимостей Перепишем неравенство B7) с учетом B6) P{Fk,M-k <Fx}=P{(a- af?TF(d - а) < s2fcFx} =Р{а?Е?}^х (здесь s2 — оценка A3) параметра о2). Искомой совместной доверительной обла- областью для коэффициентов регрессии а будет главный эллипсоид рассеяния Ее радиуса е — 3.7. Прогнозирование результатов эксперимента. Точность и надежность прогноза В предыдущих разделах мы показали, как по результатам эксперимента можно найти зависимость A) между переменными у и х = («,•)"_,, и описали эту зависимость соотношением A2) к У =¦ <р (x)fl = У &i<Pi {Х\, #2, • • • ) xn)i где (Pi(x) — известные функции, а оценки а,- даются формулой A1) d= (FrF)~IFrY. Эти формулы могут быть использованы теперь для прогнозирования результатов экс- эксперимента. При этом, конечно, предполагается, что новые измерения подчиняются тем же закономерностям и структура взаимодействия переменных в новых экспери- экспериментах такая же, какой она была в экспериментах, послуживших источником инфор- информации для построения модели. Пусть Хо — точка, в которой мы хотим спрогнозировать значение переменной y(xq). Отметим, что у — предсказываемое моделью A2) значение переменной у в точке хо, у(хо) = (рт(х0)а, является несмещенной оценкой математического ожидания прогнозируемого изме- измерения F(xo). Дисперсия этой оценки легко находится D[y(xo)]=M[<pT(xo)ddT<p(xo)] = (pT(x0)M[ddT](p(x0), откуда, учитывая равенство К[а, а ] о2 (F T F) , заключаем, что D[y(xo)] = a2(pT(xo)(FTF) <р(х0). В соответствии с принятыми допущениями прогнозируемое измерение F(xo) склады- складывается из значения у(хо) и ошибки измерения е Г(х0) = у(х0) + е. Разница между прогнозируемым значением и предсказанным с помощью модели A2) является нормальной случайной величиной с нулевым средним M[AY] = M[Y(x0) - у(х0)] = у(х0) - М[у(х0)] = О и дисперсией D[AY] = D[Y(x0)] + D[y(x0)] = <т2(\ + <рт{у Отсюда, как и выше, заключаем, что отношение Г(х0) - у (хо)
§3. Неслучайные переменные. Линейные по параметрам регрессионные модели 221 N имеет распределение Стьюдента с ]Г^ г, - fc степенями свободы. Это позволяет нам оценивать точность прогноза стандартным образом — задаем надежность я, близкую к единице, и находим значение tx такое, что Р{|<ду| <<*}=><?. С вероятностью, не меньшей х, при этом выполняется соотношение (рт(х0)а - txD Т указывающее границы, в которых с надежностью, не худшей «, находится прогнози- прогнозируемое значение у(хо) переменной у. Здесь D = sv/1 + ^r(xo)(FrF) <p(*o) — оценка дисперсии
Заключение Завершая обсуждение простейших задач статистического анализа эксперименталь- экспериментальных данных отметим, что рассмотренные нами проблемы допускают широкое обоб- обобщение, как с точки зрения постановок, так и с точки зрения используемых методов исследования. Одним из важнейших обстоятельств, определяющих успех в постанов- постановке и решении статистических задач, является четкое осознание исследователем того, каким фактическим исходным материалом он обладает, какие цели он перед собой ставит и чего в конечном итоге хочет добиться. Постановка задачи определяет, как правило, не только аппарат, необходимый для ее решения, но, зачастую, и способы получения экспериментального материала. Не менее существенной является и интерпретация результатов применения тех или иных статистических процедур. Только компетентность исследователя и корректность статистика являются гаран- гарантией содержательной и безошибочной интерпретации. Сами по себе статистические процедуры не решают реальных прикладных проблем, однако правильно понятые и объясненные результаты их применения являются надежным ориентиром для при- прикладника.
Примеры решения задач 1. Случайные величины ft, ft и ft независимы и нормальны с одинаковым средним, равным 2. Известно, что их дисперсии относятся соответственно как 3:4:2. Найти ковариационную матрицу этих случайных величин, если известно, что - fc + 3ft > 5} = 0,95. Решение. Поскольку случайные величины ft, ft и ft — независимы, то они некоррели- рованы. Следовательно, искомая ковариационная матрица диагональна и ее диагональные элементы — дисперсии случайных величин (i,Bh ft соответственно: ( *>ь о о K[ft,ft,ft] = о *>ь о V 0 0 D(l Далее, из независимости и нормальности заключаем, что любая линейная комбинация этих случайных величин — нормальная случайная величина. В частности где m = М Bft - ft + 3&) = 2М& - М& + ЪМft = 8 и D = 0B6 - B + 3ft) = 4D(, + DB + 90ft. Пусть дисперсия случайной величины ft равна а2. Тогда из условия задачи получим, что щ2 = А<т2/Ъ, ?>ft = 2«г2/3, откуда D = 34«г2/3. Для нахождения величины а2 используем последнее условие задачи Отсюда _/ 5-8 \ „„. 5-8 t,AC псл^ = -1,645 =*> а « 0,542. «rv/34/З Искомая ковариационная матрица / 0,293 0 0 K[ft,ft,ft]= 0 0,391 0 \ 0 0 0,195 2. Пара случайных величин ( и rj имеет совместное нормальное распределение с вектором математических ожиданий {-2, -1} и ковариационной матрицей К Известно, что Р{( -2г}<3} = 0,65. Найти D(, Drj.
224 Примеры решения задач Решение. Совместная нормальность пары случайных величин (иг/ обеспечивает нормаль- нормальность каждой из них и любой их линейной комбинации, в частности величина ? = ? - 2г, нормальна с параметрами = Mi - 2Мт) = -2 - 2(-1) =0, D( = D? + ADr, - 4 cov(?, rj). Подставляя в последнее соотношение элементы ковариационной матрицы: ?>? = 2а2, Drj = la2, cov(?, rj) = За2, получим DC = 2а2 + 4 • 7а2 - 4 • За2 = 18«г2. По условию Р{( < 3} = 0,65, откуда, используя нормальность ?, ) = 0,65 =» —= = 0,385 =» а » 1,837. Искомые дисперсии равны, соответственно, = 2а2 и 6,747, Drj = la2 и 23,622. 3. Найти ковариацию ординаты и абсциссы точки М(?, rj), равномерно распределенной в ква- квадрате К с вершинами А(-\, 0), В@, 1), СA, 0) и D@, -1). Зависимы ли эти случайные вели- величины? Решение. Пара (?, rj) равномерно распределена в квадрате, значит, ее плотность задается соотношением f(v(x> У) = \ [ 0, в противном случае. Для ковариации получаем cov(?, rj) = JJ Д,(аг, у)(аг - М?)(у - Mr,) dx dy. к Поскольку = ff f(v(x, y)(x - MO dx = Л Д,(«, y)(y - Mr,) dy = 0, постольку cov(?, r})= И fiv(x, y)xy dx dy = // -art/ dx dy = 0. JJ JJ ? Тем не менее случайные величины (?, rj) зависимы, так как изменение значения одной из них вызывает изменение диапазона значений другой4^. 4. Двумерная случайная величина (?, rj) имеет вектор математических ожиданий {0, -1} и ковариационную матрицу Достаточно ли этих данных, чтобы спрогнозировать значения компоненты г, при известных значе- значениях компоненты ? ? Решение. Заметим, что cov(?, rj) — о 4^ Впрочем, можно чисто формально установить интегрированием, что закон распределения одной из компонент зависит от значения, принятого другой компонентой.
Примеры решения задач. 225 Отсюда р — — 1, и это значит, что между случайными величинами ? и rj имеется линейная функциональная зависимость, описываемая соотношением Следовательно, при известных значениях компоненты ? значения компоненты т} могут быть спрогнозированы с вероятностью 1. 5. Случайные величины ?, т) и ? связаны соотношением Известно, что М? = О, Мг) = О, М? = О, D? = 2, Drj = 1, D? = 5. Найти ковариационную матрицу этих случайных величин. Решение. Умножая данное в условии линейное соотношение последовательно на (, г) и ? и находя математические ожидания от обеих частей получающихся равенств, получим 2М?2 - ЗМг)? + М?? = О, 2М(т) - ЗМг}2 + М?т) = О, ? = 0. В силу равенства нулю математических ожиданий случайных величин, математические ожида- ожидания квадратов будут равны дисперсиям, а математические ожидания произведений — ковариа- циям. Для элементов ковариационной матрицы приходим к системе 2Di - 3 cov(^) + cov(CO = О, 2 cov(^) - ЗД, + cov(C»7) = О, 2 cov(CC) - 3 covfoC) + Dc = 0, или, подставляя известные дисперсии рассматриваемых случайных величин 3 = 2 cov(?»7) + cov(?»7), 5 = -2 cov(?C) + 3 cov(»7C), Решая эту систему, получим искомую ковариационную матрицу 2 * -1 Ч 9 3 Е.*<1= | • J _4 П ~3 J
ВВЕДЕНИЕ В ТЕОРИЮ ИГР В практической деятельности весьма часто приходится рассматривать явления и си- ситуации, в которых участвуют две или более стороны, имеющие различные интересы и обладающие возможностями применять для достижения своих целей разнообраз- разнообразные действия. Подобные явления и ситуации принято называть конфликтными, или просто конфликтами. Типичный конфликт характеризуется тремя основными составляющими: 1) заинтересованными сторонами, 2) возможными действиями этих сторон, 3) интересами сторон. Конфликтная ситуация, взятая из реальной жизни, как правило, довольно слож- сложна. К тому же ее изучение затруднено наличием многих разных обстоятельств, часть из которых не оказывает сколь-либо существенного влияния ни на развитие конфлик- конфликта, ни на его исход. Поэтому для того, чтобы анализ конфликтной ситуации оказался возможным, необходимо отвлечение от этих второстепенных факторов, при удач- удачном стечении обстоятельств позволяющее построить упрощенную формализованную модель конфликта, которую и принято называть игрой. От реальной конфликтной ситуации игра отличается еще и тем, что ведется по вполне определенным правилам. Необходимость изучения и анализа конфликтов, представляемых в виде упрощен- упрощенных математических моделей (игр), вызвала к жизни специальный математический аппарат — теорию игр. Опишем некоторые основные понятия, используемые в этой теории. Заинтересованные стороны называются игроками. Любое возможное для игрока действие (в рамках заданных правил игры) называется его стратегией. В условиях конфликта каждый игрок выбирает свою стратегию, в результате чего складывается набор стратегий, называемый ситуацией. Заинтересованность игроков в ситуации проявляется в том, что каждому игроку в каждой ситуации приписывается число, выражающее степень удовлетворения его интересов в этой ситуации и называемое его выигрышем в ней. В этих условиях протекание конфликта состоит в выборе каждым игроком сво- своей стратегии и в получении им в сложившейся ситуации выигрыша из некоторого источника. На этом пути создается теория игр с выигрышами. Однако оценка игроком ситуации путем указания его выигрыша, вообще говоря, не всегда возможна практически и даже не всегда имеет смысл. В подобных случаях иногда удается вместо прямых численных оценок ситуаций указывать на их сравни- сравнительную предпочтительность для отдельных игроков. На этом пути создается теория игр с предпочтениями, включающая в себя как частный случай и теорию игр с выигры- выигрышами. В дальнейшем мы ограничимся рассмотрением только игр с выигрышами.
Введение в теорию игр 227 Изучение игр можно проводить с различных точек зрения. Мы будем стремиться к — выработке принципов оптимальности, то есть того, какое поведение игроков следует считать оптимальным (разумным, целесообразным), — выяснению реализуемости этих принципов, то есть установлению существова- существования оптимальных в выработанном смысле ситуаций, и — отысканию этих реализаций. Одной из плодотворных форм реализации представлений об оптимальности можно считать понятие равновесия, при котором складывается такая (равновесная) ситуация, в нарушении которой не заинтересован ни один из игроков. Именно ситуации равновесия могут быть предметом устойчивых договоров между игроками (ни у одного из игроков не будет мотивов к нарушению договора). Кроме того, ситуации равновесия являются выгодными для каждого игрока: в равновесной ситуации каждый игрок получает наибольший выигрыш (разумеется, в той мере, в ка- какой это от него зависит). Если в игре ситуации равновесия (в пределах отпущенных возможностей) нет, то, оставаясь в условиях стратегий, имеющихся у игроков, мы сталкиваемся с неразре- неразрешимой задачей. При возникновении подобных случаев естественно ставить вопрос о таком расширении первоначального понятия стратегии, чтобы среди ситуаций, со- составленных из новых, обобщенных стратегий, заведомо нашлись бы равновесные. Если такие обобщенные стратегии существуют, то обычно они представляются неко- некоторыми комбинациями исходных стратегий (при этом, естественно, предполагается, что игра повторяется многократно). Для того, чтобы отличать прежние стратегии от новых, первые называют чистыми, а вторые — смешанными стратегиями. Весьма плодотворным является представление смешанной стратегии как случай- случайного выбора игроками их чистых стратегий, при котором случайные выборы различ- различных игроков независимы в совокупности, а выигрыш каждого из них определяется как математическое ожидание случайного выигрыша. Игра, преобразованная таким образом, обычно называется смешанным расширением исходной игры. Проиллюстрируем сказанное на примере одного из самых простых, но одновре- одновременно и наиболее изученных классов игр, на так называемыхл*атричных играх. Иссле- Исследование матричных игр интересно еще и потому, что к ним могут быть приближенно сведены многие игры более общего вида. Затем мы кратко остановимся на вопросе классификации игр и рассмотрим еще два вида игр — позиционные игры и биматричные игры.
Глава XLVI МАТРИЧНЫЕ ИГРЫ Рассмотрим игру, в которой участвуют два игрока, причем каждый из игроков имеет конечное число стратегий. Обозначим для удобства одного из игроков через А, в другого — через В. Предположим, что игрок А имеет то стратегий — А\, А2,... , Ат, а игрок В имеет п стратегий В\, В2, •.. , Вп. Пусть игрок А выбрал стратегию А{ , а игрок В стратегию Bk. Будем считать, что выбор игроками стратегий .4, и Bk однозначно определяет исход игры — выигрыш игрока А и выигрыш &,* игрока В, причем эти выигрыши связаны равенством bik = -aik (отрицательный выигрыш на бытовом языке обычно называют проигрышем). Последнее условие показывает, что в рассматриваемых обстоятельствах выигрыш одного из игроков равен выигрышу другого, взятому с противоположным знаком. По- Поэтому при анализе такой игры можно рассматривать выигрыши только одного из игро- игроков. Пусть это будут, например, выигрыши игрока А. Если нам известны значения пц. выигрыша при каждой паре стратегий (в каждой ситуации) {А{, Вк}, г = 1, 2,... , то, к = 1, 2, ... , п, то их удобно записывать или в виде прямоугольной таблицы, строки которой соответствуют стратегиям игрока А, а столбцы — стратегиям игрока В: a\ в, z amX B2 ... a22 ... am2 ... Bn a>2n amn а]2 а22 или в виде матрицы ат\ 0>т2 • • • Полученная матрица имеет размер то х п и называется матрицей игры, или пла- платежной матрицей (отсюда и название игры — матричная). Рассматриваемую игру часто называют игрой то х п или то х п игрой. Замечание. Матричные игры относятся к разряду так называемых антагонистических игр, то есть игр, в которых интересы игроков прямо противоположны. Пример 1. Каждый из двух игроков А и В одновременно и независимо друг от друга записывает нв листе бумаги любое целое число. Если выписанные числа имеют одинаковую четность, то игрок А получает от игрока В 1 рубль, а если разную, то наоборот — игрок А платит 1 рубль игроку В.
§ 1. Равновесная ситуация 229 У игрока А две стратегии: А\ — записать четное число и Ai — записать нечетное число. У игро- игрока В такие же две стратегии. В\ — записать четное число \л Bi — записать нечетное число. Выбор игроками соответственно стратегий Ах и В), однозначно определяет исход игры — выигрыш игрока А. Матрица этой 2x2 игры имеет следующий вид (-! "О (здесь строки соответствуют стратегиям игрока А, а столбцы — стратегиям игрока В). § 1. Равновесная ситуация Рассмотрим следующий пример. Пример 2. Два игрока А и В, не глядя друг на друга, кладут на стол по картонному кружку красного (г), зеленого (g) или синего (Ь) цветов, сравнивают цвета кружков и расплачиваются друг с другом так, как показано в матрице игры (-2 2 -1\ 2 11 V 3 -3 1/ (напомним, что у этой 3 х 3-матрицы строки соответствуют стратегиям игрока А, а столбцы — страте- стратегиям игрока В). Считая, что эта 3x3 игра повторяется многократно, попробуем определить оптимальные стратегии каждого из игроков. Начнем с последовательного анализа стратегий игрока А, не забывая о том, что, выбирая страте- стратегию игрока А, должно принимать в расчет, что его противник В может ответить на нее той из своих стратегий, при которой выигрыш игрока А будет минимальным. Так, на стратегию Аг он ответит стратегией Вт (минимальный аыигрыш равен -2, что на самом деле означает проигрыш игрока А, равный 2), на стратегию А% — стратегией В% или Въ (минимальный выигрыш игрока А равен 1), а на стратегию Ль — стратегией В% (минимальный выигрыш игрока А равен -3). Запишем эти минимальные выигрыши в правом столбце таблицы: At А*. Аь Bt -2 2 3 в* 2 1 -3 Вь -1 1 1 -2 1 -3 maxmin. Неудивительно, что игрок А останавливает свой выбор на стратегии Ag, при которой его минимальный выигрыш максимален (из трех чисел —2, 1 и -3 максимальным является 1): Ar Bt -2 2 3 в, 2 1 -3 -1 1 1 -2 [Г -3 maxmin = 1. Если игрок А будет придерживаться этой стратегии, то ему гарантирован выигрыш, не меньший 1, при любом поведении противника в игре. Аналогичные рассуждения можно провести и за игрока В. Так как игрок В заинтересован в том, чтобы обратить выигрыш игрока А в минимум, то ему нужно проанализировать каждую свою стратегию с точки зрения максимального выигрыша игрока А. Выбирая свою стратегию, игрок В должен учитывать, что при этом стратегией его противника А может оказаться та, при которой выигрыш игрока А будет максимальным. Так, на стратегию Вт он отве- ответит стратегией Аъ (максимальный выигрыш игрока А равен 3), на стратегию Bg — стратегией АГ (мак- (максимальный выигрыш игрока А равен 2), а на стратегию Д> — стратегией Ag или Аь (максимальный выигрыш игрока А равен 1). Эти максимальные выигрыши записаны в нижней строке таблицы
230 Глава XLVI. Матричные игры Лг Ль Вг -2 2 3 3 въ 2 1 -з 2 Вь -1 1 1 1 -2 1 -3 minmax. Неудивительно, если игрок В остановит свой выбор на стратегии Вь, при которой макси- максимальный выигрыш игрока А минимален (из трех чисел 3, 2 и 1 минимальным является 1): •Л-г -2 2 3 3 Bg 2 1 -3 2 Вь -1 1 1 1 _2 1 2 minmax = 1. Если игрок В будет придерживаться этой стратегии, то при любом поведении противника он проифает не больше 1. В рассматриваемой игре числа maxmin и minmax совпали: maxmin = minmax = 1 (соответствующие элементы в таблице Аг Ag Аъ Вг -2 2 3 *g 2 1 -3 Bb -1 ш 1 выделены жирным шрифтом). Выделенные стратегии Аг и Въ являются оптимальными стратегиями игроков Аи В, Аг = j4opt, Въ = В, opt) в следующем смысле: при многократном повторении игры отказ от выбранной стратегии любым из игроков уменьшает его шансы на выигрыш (увеличивает шансы на проигрыш). В самом деле, если игрок А будет придерживаться не стратегии Aopt, а выберет иную стратегию, на- например, АТ, то вряд ли стоит рассчитывать на то, что игрок В этого не заметит. Конечно, заметит и не преминет воспользоваться своим наблюдением. Ясно, что в этом случае он отдаст предпочтение стратегии Вт. А на выбор А\> игрок В ответит, например, так — Bg. В результате отказа от страте- стратегии Ag выифыш ифока А уменьшится. Если же от стратегии Bopt отказывается игрок В, выбирая, например, стратегию Вт, то игрок А может ответить на это стратегией Аъ и, тем самым, увеличить свой выигрыш. В случае стратегии Вя ответ ифока А — Ат. Тем самым, ситуация {Ag, Вь} оказывается равновесной. Еще раз подчеркнем, что элементами матрицы игры являются числа, описывающие выигрыш игрока А. Более точно, выигрыш соответствует положительному элементу платежной матрицы, а отрицательный указывает на проигрыш игрока А. Матрица выплат игроку В получается из матрицы игры заменой каждого ее эле- элемента на противоположный по знаку. Рассмотрим теперь произвольную матричную игру А = О>2\ а12 а mn
§ 1. Равновесная ситуация 231 (строки заданной т х п-матрицы соответствуют стратегиям игрока А, а столбцы — стратегиям игрока В) и опишем общий алгоритм, посредством которого можно опре- определить, есть ли в этой игре ситуация равновесия или ее нет. В теории игр предполагается, что оба игрока действуют разумно, то есть стремятся к по- получению максимального выигрыша, считая, что соперник действует наилучшим {для себя) образом. Действия игрока А 1-й шаг. В каждой строке матрицы А ищется минимальный элемент а, = min од, i = 1, 2,... , m. k Полученные числа tt|, «2) • • • j °tm приписываются к заданной таблице в виде правого добавочного столбца ... а1п (*2 «ml O-rnl ••• <l mn Пояснение. Выбирая стратегию A{, игрок А вправе рассчитывать на то, что в результате разумных действий противника (игрока В) он выиграет не меньше чем а,. 2-й шаг. Среди чисел выбирается максимальное число ь а2 ,... , а = max а,- или, подробнее, а = max mm « к Специально отметим, что выбранное число а является одним из элементов заданной матрицы А. Пояснение. Действуя наиболее осторожно и рассчитывая на наиболее разумное поведение противника, игрок А должен остановиться на той стратегии Аг, для которой число а,- является максимальным. Если игрок А будет придерживаться стратегии, выбранной описанным выше спосо- способом, то при любом поведении игрока В игроку А гарантирован выигрыш, не мень- меньший а. Число а называется нижней ценой игры. Принцип построения стратегии игрока А, основанный на максимизации мини- минимальных выигрышей, называется принципом максимина, а выбираемая в соответствии с этим принципом стратегия А,о — максиминной стратегией игрока А.
232 Действия игрока В 1-й шаг. В каждом столбце матрицы А ищется максимальный элемент Глава XLVI. Матричные игры = таход, к = 1, 2,... , п. i Полученные числа Р\,Р2, ••¦ ,Рп приписываются к заданной таблице в виде нижней добавочной строки «11 «21 «ml Pi a12 «22 «m2 Pi ... alfl ... a2n ... amn ••• Pn <*1 a2 Pu p p Ръ * * — mir к min к -,Pr iPk i max од. i Пояснение. Выбирая стратегию Вк, игрок В должен рассчитывать на то, что в результате разумных действий противника (игрока А) он проиграет не больше чем /3*. 2-й шаг. Среди чисел выбирается минимальное число или, подробнее, Выбранное число р также является одним из элементов заданной матрицы А. Пояснение. Действуя наиболее осторожно и рассчитывая на наиболее разумное поведение противника, игрок В должен остановиться на той стратегии Вк, для которой число /?* является минимальным. Если игрок В будет придерживаться стратегии, выбранной описанным выше спосо- способом, то при любом поведении игрока А игроку В гарантирован проигрыш, не боль- больший/5. Число C называется верхней ценой игры. Принцип построения стратегии игрока В, основанный на минимизации макси- максимальных потерь, называется принципом минимакса, а выбираемая в соответствии с этим принципом стратегия Вко — минимаксной стратегией игрока В. Нижняя цена игры а и верхняя цена игры C всегда связаны неравенством Замечание. Реализация описанного алгоритма требует 2тп — 1 сравнений элементов матрицы А: (п - \)т + т — 1 = тп - 1 сравнений для определения а, (п - \)т + т — 1 = тп - 1 сравнений для определения /3 и одно сравнение полученных чисел а и /3. Если или, подробнее, max i mm од : к a = J3, = aiOfco = : mm к max t ОД,
§ 2. Смешанные стратегии 233 то ситуация {Аго, Вко} оказывается равновесной, и ни один из игроков не §аи'нте- ресован в том, чтобы ее нарушить (в этом нетрудно убедиться путем рассуждений, подобных проведенным при анализе игры в примере 2) В том случае, когда нижняя цена игры равна верхней цене игры, их общее значение называется просто ценой игры и обозначается через v Цена игры совпадает с элементом atoko матрицы игры А, расположенным на пересе- пересечении г° -й строки (стратегия Аго игрока А) и к0 -го столбца (стратегия Вко игрока В) — минимальным в своей строке и максимальным в своем столбце Этот элемент называют седловой точкой матрицы А, или точкой равновесия, а про игру говорят, что она имеет седловую точку Стратегии Ato и Вко, соответствующие седловой точке, называются оптимальны- оптимальными, а совокупность оптимальных ситуаций и цена игры — решением матричной игры с седловой точкой Замечание Седловых точек в матричной игре может быть несколько, но все они имеют одно и то же значение Матричные игры с седловой точкой важны и интересны, однако более типичным является случай, когда применение описанного алгоритма приводит к неравенству а</3 Как показывает следующий пример, в этом случае предложенный выбор стратегий уже, вообще говоря, к равновесной ситуации не приводит, и при многократном ее повторении у игроков вполне могут возникнуть мотивы к нарушению рекомендаций, основанных на описанном алгоритме действий игроков Аи В Пример 3 Рассмотрим 3x3 игру, заданную матрицей А = 4 -2 0 -1 1 2 -3 3 -3 Применив предложенный алгоритм 4 -2 0 4 1 1 2 2 -3 3 -3 3 -3 -2 -3 находим нижнюю цену игры а = -2 и соответствующую ей стратегию Ai, и верхнюю цену игры /3 = 2 и соответствующую ей стратегию Bi Нетрудно убедиться в том что пока игроки придерживаются этих стратегий, средний выигрыш при многократном повторении игры равен 1 Он больше нижней цены игры, но меньше верхней цены Однако если игроку В станет известно, что игрок А придерживается стратегии Ах, он немедленно ответит стратегией В\ и сведет его выигрыш к проигрышу -2 В свою очередь, на стратегию В\ у игрока А имеется ответная стратегия А\, дающая ему выигрыш 4 Тем самым, ситуация {Ai, Bi} равновесной не является § 2. Смешанные стратегии В случае, когда нижняя цена игры а и верхняя цена игры /5 не совпадают, игрок А может обеспечить себе выигрыш, не меньший а, а игрок В имеет возможность не дать ему больше, чем ft Возникает вопрос — а как разделить между игроками разность
234 Глава XLVI. Матричные игры Предыдущие построения на этот вопрос ответа не дают — тесны рамки возможных действий игроков. Поэтому довольно ясно, что механизм, обеспечивающий полу- получение каждым из игроков как можно большей доли этой разности, следует искать в определенном расширении стратегических возможностей, имеющихся у игроков изначально. Оказывается, что компромиссного распределения разности /3 — а между игроками и уверенного получения каждым игроком своей доли при многократном повторении игры можно достичь путем случайного применения ими своих первоначальных, чи- чистых стратегий. При таких действиях — во-первых, обеспечивается наибольшая скрытность выбора стратегии (результат выбора не может стать известным противнику, поскольку он неизвестен самому игроку), — во-вторых, при разумном построении механизма случайного выбора стратегий, последние оказываются оптимальными. Случайная величина, значениями которой являются стратегии игрока, называется его смешанной стратегией. Тем самым, задание смешанной стратегии игрока состоит в указании тех вероят- вероятностей, с которыми выбираются его первоначальные стратегии. 2.1. Основные определения Рассмотрим произвольную тх п игру, заданную т х п-матрицей аи 0-22 A = Так как игрок А имеет тп чистых стратегий, то его смешанная стратегия может быть описана набором тп неотрицательных чисел Pi > 0, р2>0, ..., сумма которых равна 1, Смешанная стратегия второго игрока В, имеющего п чистых стратегий, описыва- описывается набором п неотрицательных чисел сумма которых равна 1, Замечание. Каждая чистая стратегия является частным случаем смешанной стратегии: в частности, чистая стратегия А{ является смешанной стратегией, описываемой набором чисел pi,p2, •••, Pm. в котором Pi = 1, Р;=0 0'^»)- Подчеркнем, что для соблюдения секретности каждый из игроков применяет свои стратегии независимо от другого игрока.
§2. Смешанные стратегии. 235 Таким образом, задав два набора , ¦¦¦ ,рт}, ъ •••, qn}, мы оказываемся в ситуации в смешанных стратегиях. В этих условиях каждая обычная ситуация (в чистых стратегиях) {Ai, Вк} по определению является случайным собы- событием и, ввиду независимости наборов Р и Q, реализуется с вероятностью Piqk- В этой ситуации {А{, Вк} игрок А получает выигрыш а,-*. Тем самым, математическое ожи- ожидание выигрыша игрока А в условиях ситуации в смешанных стратегиях (Р, Q) равно ha{p, Q) m = ? n k№k- Это число и принимается за средний выигрыш игрока А при смешанных стратегиях Определение. Стратегии называются оптимальными смешанными стратегиями игроков А и В соответственно, если выполнено следующее соотношение HA{ P\ Пояснение. Выписанные неравенства означают следующее: левое неравенство — отклонение игрока А от оптимальной стратегии Р° при условии, что игрок В придерживается стратегии Q0, приводит к тому, что выигрыш отклонившегося игрока А может только уменьшиться, правое неравенство — отклонение игрока В от оптимальной стратегии Q0 при условии, что игрок А придерживается стратегии Р°, приводит к тому, что выигрыш игрока А можеттолько возрасти, и значит, выигрыш игрока В — только уменьшиться. Приведенное условие оптимальности равносильно тому, что1) max min HA(P, Q) = НА (Р°, Q°) = min max HA(P, Q). р Q Q р Величина определяемая последней формулой, называется ценой игры. Набор (Р°, Q0, и), состоящий из оптимальных смешанных стратегий игроков А и В и цены игры, называется решением матричной игры. Пример 4. Рассмотрим 2x2 матричную игру из примера 1. Матрица этой игры имеет следующий вид Как нетрудно убедиться, седловой точки у нее нет. '* Экстремальные величины max min Я^(Р, Q) и min max Нд(Р, Q) всегда существуют вследствие того, Р Q Q Р что функция На(Р, Q) является непрерывной на замкнутом множестве р,
Глава XLVI. Матричные игры Смешанные стратегии игроков А и В могут быть описаны парами чисел Р = {р,1-р} и Q = {g,l-g} соответственно. Средний выигрыш игрока А вычисляется так: - l)Bg - 1). откуда легко следует, что НА(Р, Q) = 4pq-2p-2q+l = Последнее удобно записать так Полученная формула показывает, что если игрок А в половине случаев записывает на листе бумаге четное (нечетное) число (выбирает р = 1/2), то независимо от того, что делает игрок В, ожидаемый (средний) вы- выигрыш игрока А в каждой партии будет нулевым. Если же игрок А выберет р > 1/2 (так что разность р— 1/2 будет положительной), то узнвв об этом, игрок В может выбрать q < 1/2 (так что разность q - 1/2 будет отрицательной) и, тем самым, сделвть средний выигрыш игрока А отрицательным, то есть заставит его проиграть. Если же игрок А выберет р < 1/2 (так что разность р — 1/2 будет отрицательной) и игрок В узнает об этом, то он может выбрать g > 1/2 (так что разность q-1/2 бу- будет положительной) и вновь сделать выигрыш игрока А отрицательным, то есть опять заставит его проиграть. Исследуем теперь эту формулу с точки зрения игро- игрока В. Если игрок А выбирает р = 1/2, то ожидаемый (средний) выигрыш игрока В независимо от его дей- действий будет нулевым в каждой партии. Но если игрок В выберет g > 1/2 (так что разность q - 1/2 будет поло- положительной), то, узнав об этом, игрок А может выбрать р < 1/2 (так что разность р - 1/2 будет отри- отрицательной), и тогда игрок В будет проигрывать в каждой партии. Если же игрок В выберет q < 1/2 (так что разность q —1/2 будет отрицательной) и игрок А узнает об этом, то он может выбрать р > 1/2 (так что разность р — 1/2 будет положительной) и вновь заставит игрока В проиграть. Тем самым, наборы P°-il- 1\ о0-!1- ± Г ~ 12' 2) ' V - \2' 2 являются оптимальными, а исход игры ничейным: Рис.1 Замечание. На рисунке 1 показано, как устроена поверхность, описываемая функцией Л(Р, q) = 4pq-2p-2q+l = Bp- \){2q - 1). Точка является седловой точкой (точкой перевала) этой поверхности. Именно эта точка и дает решение рассматриваемой матричной игры. Естественно возникают два ключевых вопроса: 1-й — какие матричные игры имеют решение в смешанных стратегиях? 2-й — как находить решение матричной игры, если оно существует? Ответы на эти вопросы дают следующие две теоремы.
§ 2. Смешанные стратегии 237 2.2. Основная теорема теории матричных игр Теорема 1 (Дж. фон Нейман). Для матричной игры с любой матрицей А величины равны между собой, max min НА(Р, Q), min max НА{Р, Q) р q q P max min HA(P, Q) = min max HA(Py Q). p q Q p Более того, существует хотя бы одна ситуация в смешанных стратегиях (Р°, Q0), для которой выполняется соотношение НА(Р°, Q°) = max min HA(P, Q) = min max HA(P, Q). Р Q Q P Иными словами, любая матричная игра имеет решение в смешанных стратегиях. По- Поиск этого решения опирается на следующие установленные факты. 2.3. Основные свойства оптимальных смешанных стратегий Теорема 2. Пусть т-»0 Г 0 0 0 1 лО Г 0 0 01 " = \Р\>Р2, • •• >Рт) и Q = {qu q2, ... , qn) — оптимальные смешанные стратегии и v — цена игры. Оптимальная смешанная стратегия Р° игрока А смешивается только из тех чистых стратегий А{, % = 1, 2,... , т, то есть отличными от нуля могут быть вероятности pi только с теми номерами г = 1, 2,... , т, для которых выполнены равенства п aikql - v. Это означает, что смешиваются не все чистые стратегии. Аналогично, в оптимальной смешанной стратегии Q0 игрока В отличных от нуля могут быть только те вероятности qk, для номеров к — 1, 2,... , п, которых выполнены равенства 171 * 0 UkPi = V. Кроме того, имеют место соотношения 171 L 171 v = min V^ flttPi = max min V^ a,*», = = mm max y] o,ikqk = max J> o>ikqk = v. Q k=\ L-J В этом последнем скоплении равенств, по существу, и лежат истоки, питающие методы построения решений матричных игр. Опишем простейшие из них.
238 Глава XLVI. Матричные игры § 3. Методы решения матричных игр Наши рассмотрения мы начнем с матричных игр, число стратегий хотя бы одного из игроков в которых равно двум. Для построения решений 2 х п и т х 2 игр существует эффективный метод, осно- основанный на простых геометрических соображениях. Этот метод называют графическим. 3.1. 2 X п игры Пусть ( «11 V «21 «12 ... «22 «in «2п — платежная матрица 2хя игры. Согласно теореме о двойном описании игры (теорема 2) нахождение цены игры и оптимального значения р° для игрока А равносильно разрешению уравнения v= min (alkp° = max min (alkp + a2k(\ -p)). O^^1 l^fc^ Опишем общую схему, приводящую к искомому результату. Максимум функции min (alkp + a2k(\ - p)) (•) проще всего найти, построив ее график. Для этого поступают следующим образом. Предположим, что игрок А выбрал смешанную стратегию Р = {р, 1 - р}, а игрок В — к-ю чистую стратегию, к = 1, 2, ... , п. Тогда средний выигрыш игрока А в ситуации {Р, к} оказывается равным (к): w = alkp+a2k(\-p). На плоскости (р, w) уравнение (к) описывает прямую. Тем самым, каждой чистой стратегии игрока В на этой плоскости соответствует своя прямая. Поэтому сначала на плоскости (w, p) последовательно и аккуратно рисуются все прямые (fc): w = alkp + a2k(l - р), к=\,2,... ,п (рис.2). Затем для каждого значения р, О ^ р ^ 1, путем визуального сравнения соответствующих ему значений w на каждой из построенных прямых определяет- определяется и отмечается минимальное из них (рис. 3). В результате описанной процедуры получается ломаная, которая и является графиком функции (•) (выделена жирным на рис.4). Эта ломаная как бы огибает снизу все семейство построенных прямых, W 0 О Рис.2 Рис.3 Рис.4
§3. Методы решения матричных игр 239 и по этой причине ее принято называть нижней огибающей этого семейства. Верхняя точка построенной нижней огибающей определяет и цену игры — v и оптимальную стратегию игрока А — Р° = {р°, 1-р0} (рис. 5). Замечание. Описанная процедура может рассматриваться как некоторый аналог максиминного подхода при отсутствии седловой точки. Опробуем описанную схему решения 2хп игры на конкретном примере. Пример 5. Рассмотрим игру, заданную 2x6 матрицей /6 4 3 1-1 V —2 —1 1 0 5 Решение. 1-й шаг. Анализ игры на наличие седловой точки. Нижняя цена игры равна -1, верхняя цена игры равна 1. Седловой точки нет. Решение игры нужно искать в смешанных стратегиях. 2-й шаг. Вычисление средних выигрышей игрока А (проводится при условии, что игрок В выбирает только чистые стратегии). Из таблицы легко получаем: Р 1-р 6 -2 A): B): C): D): E): F): 4 -1 w = w = w = И/ = W = W = 3 1 6р- 4р- зр + Р, -Р + 1 -1 0 0 5 4 2A-Р), A-Р), A-Р), 5A -р), 4A-р). 3-й шаг. Построение нижней огибающей. Аккуратно строим на координатной плоскости (р, w) все шесть прямых, уравнения которых полу- получены на 2-м шаге (рис. 6), и находим их нижнюю огибающую. 4-й шаг. Отыскание цены игры и оптимальной смешанной стратегии игрока А. При аккуратном построении нижней огибающей, нетрудно определить, точкой пересечения каких двух из построенных шести прямых является ее наивысшая точка. В данном случае это прямые D) и E), заданные уравнениями w — р и w — — р + 5A — р) соответственно. Решая систему уравнений «/= р, получаем (рис.7). Wi V 0 1 р w i \ N 0 / \ / Ж ——7Т \ \ // \ /B) -D) W t w° 0 / Л 1 р Рис.5 Рис.6 Рис.7
240 . Глава XLVI. Матричные игры «Тем самым, цена игры v и оптимальная стратегия Р игрока А соответственно равны V ~ 7> - \7> 7/ • Собственно, этим и заканчивается решение игры для игрока А, поскольку его в пер- первую очередь интересует отыскание собственной оптимальной стратегии и ожидаемого наилучшего гарантированного результата. Замечание. Решающий матричную игру обычно отождествляет себя с одним из игроков (как правило, это игрок А), считая другого своим противником. Это связано еще и с тем, что в некоторых случаях основное внимание уделяется поиску оптимальных стратегий только игрока А, а стратегии противника могут вообще не интересовать исследователя. Однако в целом ряде случаев оказывается важным знать оптимальные смешанные стратегии обоих игроков. Как ищется оптимальная смешанная стратегия игрока А, мы уже описали. Пока- Покажем теперь, как отыскать оптимальную смешанную стратегию игрока В. Здесь, в зависимости от формы нижней огибающей, может представиться несколь- несколько случаев. А. Нижняя огибающая имеет ровно одну наивысшую точку (р°, w°): 1) Если р° = О (оптимальная стратегия игрока А — чистая стратегия А2), то игро- игроку В выгодно применять чистую стратегию, соответствующую номеру прямой, про- проходящей через точку @, w°) и имеющей наибольший отрицательный наклон (рис. 8). Рис.8 Рис.9 Рис. 10 2) Если р° = 1 (оптимальная стратегия игрока А — чистая стратегия А\), мальной для игрока В является чистая стратегия, соответствующая номеру проходящей через точку A, w°) и имеющей наименьший положительный наклон (рис. 9). 3) Если 0 < р° < 1, то в наивысшей точке нижней оги- огибающей пересекаются, по меньшей мере, две прямые, одна из которых (fc-я) имеет положительный наклон, а другая A-я) — отрицательный (рис. 10), и оптимальная смешан- смешанная стратегия игрока В получается, если положить то опти- прямой, = \-q, qj = 0, j ф fc, 0 где q — решение уравнения 1 P ~q) = a2kq + a2i{\ - q). Рис.11 Б. Нижняя огибающая содержит горизонтальный участок, соответствующий чи- чистой стратегии к0 игрока В, которая и является оптимальной для него (рис. 11).
§3. Методы решения матричных игр. 241 Пример 5 (продолжение). Покажем теперь, как найти полное решение игры, то есть еще и оптимальную смешанную стратегию Q° = К, я1 я1 я1 ч1 &} игрока В. Для этого поступают так: 1) полагают q°4=q, q°6 = О (выделяя тем самым из шести чистых стратегий игрока В стратегии Ва и В$, которым соответствуют прямые D) и (S), определяющие наивысшую точку нижней огибающей), 2) приравнивают любой из двух средних выигрышей игрока В (игрок А выбирает только чистые стратегии), отвечающих предложенной смешанной стратегии О 0 0 q \-q О к цене игры 3) получают (в обоих случаях), что Полное решение игры имеет следующий вид Q0 = {0,0,0,*, > 6 -2 «-( X), ЧТО 4 -1 i-t) 3 1 я° 1 0 6 - 7' -1 5 5A - f) 0 4 Замечание. Ситуация с наличием лишь двух конкурирующих стратегий игрока А нельзя считать на- надуманной. Она возникает сравнительно часто. Например, в случае, если нужно сравнить два образца некоторого изделия (скажем, старого и модернизированного) с целью выяснения возможности замены, это весьма удобно сделать при помощи платежной матрицы 2 х п. 3.2. т х 2 игры Пусть теперь в матричной игре две чистые стратегии имеет игрок В, а число чистых стратегий у игрока А произвольно (равно т). Это означает, что платежная матрица такой игры имеет вид а>\\ а>\г \ а2] \ 0>т\ O-rnl ) Анализ такой игры во многом напоминает рассуждения, описанные для игры 2 х п. Пусть Q = {q, 1—q} — произвольная смешанная стратегия игрока В. Если игрок А выбирает г-ю чистую стратегию, г = 1, 2,... , т, то средний выигрыш игрока В в ситуации {г, Q} будет равным (»): w = aixq + ai2{\-q), t=l,2, ...,m. (*) Зависимость этого выигрыша от переменной q описывается прямой. Графиком функции max (ui\q + а^A — q)) Рис. 12 является верхняя огибающая семейства прямых (*), соот- соответствующих чистым стратегиям игрока А (рис. 12). Абсциссой нижней точки полученной ломаной будет значение q°, определяющее оптимальную смешанную стра- стратегию игрока В, а ординатой w° — цена игры.
242. Глава XLVI. Матричные игры Замечание. Отыскание оптимальной смешанной стратегии игрока А проводится по той же схеме, которая позволяет находить оптимальную смешанную стратегию игрока В в игре 2 х п. Рассмотрим конкретный пример. Пример 6. 3 ж 2 игра задана матрицей Решение. 1-й шаг. Анализ игры на наличие седловой точки. Нижняя цена игры равна 0, верхняя цена игры равна 3. Седловой точки нет. Решение игры нужно искать в смешанных стратегиях. 2-й шаг. Вычисление средних выигрышей игрока В (проводится при условии, что игрок А выбирает только чистые стратегии). Из таблицы q 1-g 3 -1 1 -1 3 о получаем: A) B) C) w= 3g- (l-q), w= -g4-3(l -g), w = q. 3-й шаг. Построение верхней огибающей. Построим на координатной плоскости (g, w) все три прямых, а за- заРис. 13 тем и их верхнюю огибающую (рис. 13). 4-й шаг. Отыскание цены игры и оптимальной смешанной стратегии игрока В. Нижняя точка верхней огибающей является точкой пересечения прямых A) и B). Решая систему уравнений и>= 3g- A-g), получаем „о 1 я = ?=4, ю° = 1- ° = 5-й шаг. Отыскание оптимальной смешанной стратегии игрока А. Полагая приравниваем средние выигрыши игрока А, соответствующие чистым выигрышам игрока В, и находим р° = 1/2. Таким образом, цена игры и оптимальные смешанные стратегии игроков А и В соответственно равны 3.3. m X п игры В принципе решение любой матричной игры сводится к решению стандартной задачи линейного программирования и, тем самым, может быть найдено методами линей- линейного программирования. При этом требуемый объем вычислений напрямую зависит от числа чистых стратегий игроков (растет с его увеличением и, значит, с увеличением размеров матрицы игры). Поэтому любые приемы предварительного анализа игры, позволяющие уменьшать размеры ее платежной матрицы или еще как-то упрощать эту матрицу, не нанося ущерба решению, играют на практике весьма важную роль.
§ 3. Методы решения матричных игр 243 Правило доминирования В целом ряде случаев анализ платежной матрицы обнаруживает, что некоторые чи- чистые стратегии не могут внести никакого вклада в искомые оптимальные смешанные стратегии. Отбрасывание подобных стратегий позволяет заменить первоначальную матрицу на матрицу выигрышей меньших размеров. Опишем одну из таких возможностей более подробно. Пусть д_ I «21 «22 ••• «2n \ «ml «m2 • • • 0>mn произвольная m x n -матрица. Будем говорить, что г-я строка матрицы А не больше j-n строки этой матрицы если одновременно выполнены следующие п неравенств «ti < «л, а«2 ^ «j2, При этом говорят также, что j -я строка доминирует г-ю строку, или что стратегия Aj игрока А доминирует стратегию А{. Замечание. Игрок А поступит разумно, если будетизбегать стратегий, которым в матрице игры отвечают доминируемые строки. Если в матрице А одна из строк (j'-я) доминирует другую строку (г-ю), то число строк в матрице А можно уменьшить путем отбрасывания доминируемой строки (г-й). Далее, будем говорить, что fc-й столбец матрицы А «mfc не меньше l-то столбца этой матрицы a2i если одновременно выполнены следующие m неравенств «1* ^ aU, «2fc ^ «2/, • • • > «mfc При этом говорят также, что 1-й столбец доминирует к-й столбец, или что стратегия В\ игрока В доминирует стратегию Вк. Замечание. Игрок i? поступитразумно, если будетизбегать стратегий, которым в матрице игры отвечают доминируемые столбцы. Если в матрице А один из столбцов A-й) доминирует другой столбец (к-й), то число столбцов в матрице А можно уменьшить путем отбрасывания доминируемого столбца (fc-ro).
244 Глава XLVI. Матричные игры Важное замечание. Оптимальные смешанные стратегии в игре с матрицей, полученной усечением исходной за счет доминируемых строк и столбцов, дадут оптимальное решение в исходной игре: до- доминируемые чистые стратегии игроков в смешении не участвуют — соответствующие им вероятности следует взять равными нулю. Пример 7. Рассмотрим игру с матрицей — 1 -2 2 -1 Сравнивая строки матрицы, видим, что 1-я строка совпадает с 4-й строкой, или, что то же, страте- стратегия ЛЦ дублирует стратегию А\. Тем самым, одну из этих строк можно вычеркнуть, не нанося ущерба решению /-1 0 2 1\ -2 0 1 0 . V 2 1-1 -2/ Поэлементно сравнивая 1-ю и 2-ю строки, замечаем, что 1-я строка доминирует 2-ю строку, или, что то же, стрвтегия Ах доминирует стратегию Аг. Это вновь позволяет уменьшить число строк матрицы (-1 0 2 1 { 2 1-1-2 Замечая, что 4-й столбец полученной матрицы доминирует ее 3-й столбец, приходим к игре с 2 х 3- матрицей (-1 0 1 [2 i-2 Решвя эту 2 х 3 игру графическим методом, находим ее решение — цену игры и оптимальные смешанные стратегии игроков А и В: Возвращаясь к исходной 4x4 игре, получаем окончательный ответ: i/ = 0, {§, 0, |, 0} , {1,0,0, i}. Замечание. При отбрасывании доминируемых строк и столбцов некоторые из оптимальных стратегий могут быть потеряны. Однако цена игры не изменится, и по усеченной матрице может быть найдена хотя бы одна пара оптимальных смешанных стратегий. Аффинное правило При поиске решения матричных игр часто оказывается полезным следующее свойство. Допустимые преобразования матрицы игры и ее цена. Оптимальные стратегии у матричных игр, элементы матриц Аи С которых связаны равенствами Cik = \aik + n, t = l, 2, ...,m; fc = 1, 2, ... , n, где X > 0, a fi — произвольно, имеют одинаковые равновесные ситуации (либо в чистых либо в смешанных стратегиях), а их цены удовлетворяют следующему условию Vq = Л^д + fi. Пример 8. Элементы матриц -1 0 2 l 1\ / 2 5 S\ -2) и c~vii s -i; связаны равенством Cik = 3 • aik + 5, i = l,2; k= 1,2,3. Поэтому цена игры с матрицей С легко вычисляется 1УС = 3-уд+ 5 = 3-0 + 5 = 5 (см. пример 7).
§ 3. Методы решения матричных игр 245 Основные этапы поиска решения матричной игры 1-й этап — проверка наличия (или отсутствия) равновесия в чистых стратеги- стратегиях (при наличии равновесной ситуации указываются соответствующие оптимальные стратегии игроков и цена игры). 2-й этап — поиск доминирующих стратегий (в случае успеха этого поиска — отбра- отбрасывание доминируемых строк и столбцов в исходной матрице игры). 3-й этап — замена игры на ее смешанное расширение и отыскание оптимальных смешанных стратегий и цены игры. 3.4. Итерационный метод решения матричных игр Опишем метод отыскания решения матричной игры — цены игры и оптимальных смешанных стратегий, в известной степени верно отражающий некоторую реальную ситуацию накопления опыта постепенной выработки игроками хороших стратегий в ре- результате многих повторений конфликтных ситуаций. Основная идея этого метода заключается в том, чтобы мысленно как бы смоделировать реальное практическое «обучение» игроков в ходе самой игры, когда каждый из игроков на собственном опы- опыте прощупывает способ поведения противника и старается отвечать на него наиболее выгодным для себя образом. Иными словами, всякий раз при возобновлении игры игрок выбирает наиболее выгодную для себя стратегию, опираясь на предыдущий выбор противника. Проиллюстрируем этот метод на примере игры, заданной матрицей 2 о (здесь maxmin = 0, minmax = 2 =>• седловой точки нет). Опишем правила выбора ходов игроками, предположив, для определенности, что начинает игрок А: ход игрока А — стратегия А\ — B 0 3); игрок В выбирает свою стратегию так, чтобы выигрыш игрока А был минимален (отмечен полужирным шрифтом): ход игрока В — стратегия Bi — ( „ J; игрок А выбирает свою стратегию так, чтобы его выигрыш при стратегии Bi игрока В был максимален (отмечен полужирным шрифтом): ход игрока А — стратегия Ai — A 3-3), игрок В выбирает свою стратегию так, чтобы «накопленный» выигрыш игрока А при стратегиях А\ и А2, B 0 3) + A 3 - 3) = C 3 0), был минимален: ход игрока В — стратегия Вз — ( __ 1; игрок А выбирает свою стратегию так, чтобы его «накопленный» выигрыш при стратегиях Bi и В^ игрока В, был максимален: ход игрока А — стратегия А\ — B 0 3), игрок В выбирает свою стратегию так, чтобы «накопленный» выигрыш игрока А при стратегиях А\, и А{, C 3 0) + B 0 3) = E 3 3), был минимален: ход игрока В — стратегия Bi — ( ., ] и т.д.
246 Разобьем последовательные ходы игроков А и В на пары (ход игрока А, ход игрока В) и запишем результаты в таблице . Глава XLVI. Матричные игры п 1 2 3 4 5 6 7 8 9 10 11 12 г 1 2 1 1 2 1 1 2 1 1 2 1 2 3 5 7 8 10 J2 13 15 17 18 20 В2 0 3 3 3 6 6 6 9 9 9 12 12 Вз 3 0 3 6 3 6 9 6 9 12 9 12 0,00 0,00 1,00 0,75 0,60 1,00 0,86 0,75 1,00 0,90 0,82 1,00 к 2 3 2 2 3 2 2 3 2 2 3 2 А, 0 3 3 3 6 6 6 9 9 9 12 12 м 3 0 3 6 3 6 9 6 9 12 9 12 3,00 1,50 1,00 1,50 1,20 1,00 1,44 ,13 1,00 1,20 ,09 1,00 1,50 0,75 1,00 1,12 0,90 1,00 1,15 0,93 1,00 1,05 0,96 1,00 требующей некоторых пояснений. Описание таблицы 1-й столбец — номер п шага (пары последовательных ходов игроков А и В), 2-й столбец — номер i стратегии, выбранной игроком А, 3-й столбец — «накопленный» суммарный выигрыш игрока А за первые п шагов при стратегии В\ игро- игрока В, минимальный из этих выигрышей выделяется полужирным шрифтом, 4-й столбец — «накопленный» суммарный выигрыш игрока А за первые п шагов при стратегии Bi игро- игрока В, 5-й столбец — «накопленный» суммарный выигрыш игрока А за первые п шагов при стратегии Вт, игро- игрока В, 6-й столбец — минимальный средний выигрыш игрока А, равный минимальному накопленному им выигрышу за первые п шагов, деленному на число этих шагов, 7-й столбец — номер к стратегии, выбранной игроком В, 8 й столбец — «накопленный» суммарный выигрыш игрока А \ за первые п шагов при стратегии А\, максимальный из этих \ выигрышей выделяется 9-й столбец — «накопленный» суммарный выигрыш игрока А I полужирным шрифтом, за первые п шагов при стратегии Aj, ) 10-й столбец — максимальный средний выигрыш игрока А, равный максимальному накопленному им выигрышу за первые п шагов, деленному на число этих шагов, 11-й столбец — среднее арифметическое минимального среднего выигрыша и максимального среднего выигрыша игрока А. Решение игры определяется приближенно по окончании любого из шагов. Например, за приближенную цену игры можно взять среднее арифметическое v(n), полученное на n-м шаге. Смешанные стратегии противников определяются частотами появления чистых стратегий. После 9-го шага имеем v{9) = 1,00. При этом игрок А 6 раз использовал стратегию А] и 3 раза стратегию Ai- В свою очередь игрок В 6 раз применял стратегию Bi, 3 раза стратегию В], а стратегией В\ не пользовался вообще. Отсюда получаем, что Р9 = {М} ~ <0'67; °'33>> <^9 = {0, |, |} «{0; 0,67; 0,33}. Соответственно, после 10-го шага получаем — 1/A0) = 1,05, Рю = {^,^} = {0,7;0,3}, Qw = {о, ^, ^} - {0; 0,7; 0,3}.
§3. Методы решения матричных игр 247 Данная игра легко решается графически. Вот точный ответ: Сравнивая результаты, полученные на 9-м, 10-м, а также 11-м и 12-м шагах: i/(ll) = 0,96, vA2) = 1,00, Р" = { ТГ> ТГ} « <°>64' °>36>> р12 = { И> И } ~ -t0'67: °'33>' Яч = {о, и» п}* {°= ом °>36ь ^'2 = {°> и> и} ~ <°; °>67; 0'33>> замечаем, что по мере увеличения числа шагов значения все меньше отличаются от точных. Сделаем несколько замечаний. Замечание 1. При увеличении числа шагов все три величины v*(n), v*(n) и v{n) будут приближаться к цене игры v, но среднее арифметическое v(n) будет приближаться к v сравнительно быстрее. Замечание 2. Хотя сходимость итераций весьма медленна, тем не менее, даже такой небольшой расчет всегда дает возможность находить ориентировочное значение цены игры и доли чистых стратегий. Замечание 3. Сравнительно медленная скорость сходимости можно объяснить целым рядом причин. Укажем одну из них, психологически наиболее интересную. Если, к примеру, игрок А уже получил оптимальную смешанную стратегию, то он не склонен останавливаться на ней. Отнюдь нет — он продолжит попытки выиграть у противника В побольше, особенно если последний еще не достиг оптимальной смешанной стратегии. Тем самым, игрок А может невольно ухудшить свое положение. Замечание 4. Отметим два основных преимущества описанного метода: 1) итерационный метод прост и одновременно универсален (при его помощи можно легко найти приближенное решение любой матричной игры), 2) объем и сложность вычислений сравнительно слабо растут по мере увеличения числа стратегий игроков (размеров матрицы игры). 3.5. Сведение матричной игры к задаче линейного программирования Рассмотрим то х п игру с платежной матрицей А = (ал). Без ограничения общности будем считать, что все элементы матрицы А положи- положительны (этого всегда можно добиться, пользуясь аффинным правилом, преобразую- преобразующим заданную матрицу игры, но не изменяющим оптимальных смешанных стратегий игроков). Тем самым, искомая цена игры v — положительное число. Интересы игрока А Из теоремы о свойствах оптимальных смешанных стратегий игроков вытекает, что при любой чистой стратегии Вк игрока В, к = \,2, ... ,п, оптимальная смешан- смешанная стратегия Р — {р\,Р2, • ¦ • , Рт} игрока А обеспечивает его средний выигрыш, не меньший v. Иными словами, выполняются соотношения т т {крг^и, fc=l, 2, ...,n, , которые с учетом обозначений Pi , ~ i = —, г = 1, 2,... , то, можно записать так
248 Глава XLVI. Матричные игры Поскольку игрок А стремится сделать свой гарантированный выигрыш макси- максимально возможным, то задача отыскания решения матричной игры сводится к следу- следующей задаче: найти неотрицательные величины Х\, х2,... , хт, удовлетворяющие неравенствам 171 I, *=1,2,...,п, и такие, что их сумма минимальна 171 ?,• —> min. Интересы игрока В Аналогичным образом заключаем, что оптимальная смешанная стратегия Q = {q\, qi, ... , </п} игрока В при любой чистой стратегии Ai игрока A, i = 1, 2,... , т, обеспе- обеспечивает его средний проигрыш, не больший v. Иными словами, выполняются соотно- соотношения п V4 < '—12 которые с учетом обозначений » = можно записать так п k=l ,т, Чк_ V ' т, п к=\ * = г» .... 1,2,..., 1 Ук = ~, • >С *=.,2,...,п, п, ук>0, к = 1,2,... ,п. Поскольку игрок В стремится сделать свой гарантированный проигрыш мини- минимально возможным, то задача отыскания решения матричной игры сводится к следу- следующей задаче: найти неотрицательные величины у\, у2,... , уп, удовлетворяющие неравенствам I, г=1,2,...,т, и такие, что их сумма максимальна п Ik —> max.
§3. Методы решения матричных игр. 249 Тем самым, мы получаем следующий важный результат. Теорема 3. Решение матричной игры с положительной платежной матрицей (a,t) равно- равносильно решению двойственных задач линейного программирования т т (а) min> к = > х> *= (В) aikyk < 1, г= 1,2, ... , т, 0, к = 1, 2, ... , п. При этом цена игры где в — величина, обратная общему значению оптимальных сумм, а оптимальные значения^ и qk связаны с оптимальными х\ и у° посредством равенств Алгоритм решения матричной ифы 1-й шаг. Ко всем элементам исходной матрицы игры прибавляется одно и то же положительное число у так, чтобы все элементы новой матрицы были строго положи- положительны. 2-й шаг. Решаются двойственные задачи линейного программирования (А) и (В) (например, симплекс-методом, или как-нибудь иначе). Находятся наборы х\, у\ и число в. 3-й шаг. Строятся оптимальные смешанные стратегии игроков А и В соответствен- соответственно о О _ xi 4-й шаг. Вычисляется цена игры Пример 9. Рассмотрим 2x2 игру с матрицей Соответствующие ей задачи линейного программирования имеют вид xi + Х2 -> min j/j + j/2 —> max 5х, + Зж2 ^ 1, х\ ^ 0, 5у\ + у2 ^ 1, 2/1 ^ 0, х, + 4х2 ^ 1, хг > 0, Зу| + 4у2 < 1, У2 > 0.
250 Глава XLVI. Матричные игры Решение. 1-й шаг. Все элементы платежной матрицы положительны. 2-й шаг. Строим решения обеих задач линейного программирования, пользуясь графическим ме- методом. В результате получаем, что х\ — 17' Х2 - 77' *' ~ 17' *2 — 17' ^ — 17- 3-Й шаг. _0 _ I _0 _ 4 о _ 3 о _ 2 Р\ - 5' Р2- 5' ^ ~ 5' ?2 - 5- 4-й шаг. §4. Примеры задач, сводимых к матричным играм В чистом виде антагонистические конфликты встречаются редко (разве только в бо- боевых действиях и в спортивных состязаниях). Однако довольно часто конфликты, в которых интересы сторон противоположны, при допущении, что множество спосо- способов действия сторон конечно, можно моделировать матричными играми. Рассмотрим несколько конкретных ситуаций. Пример 10. «Планирование посева». Сельскохозяйственное предприятие имеет возможность выращивать две культуры — А\ и Ai. Необходимо определить, как сеять эти культуры, если при прочих равных условиях их урожаи зависят от погоды, а план посева должен обеспечить наибольший доход (прибыль от реализации выращенной культуры определяется полученным объемом). В зоне рискованного земле- земледелия (а таковой является большая часть России) планирование посева должно осуществляться с учетом наименее благоприятного состояния погоды. Таким образом, одной из сторон выступает сельскохозяйственное предприятие, заинтересованное в том, чтобы получить наибольший доход (игрок А), а другой стороной — природа, способная навре- навредить сельскохозяйственному предприятию в максимальной степени (от нее зависят погодные условия) и преследующая тем самым прямо противоположные цели (игрок В). Принятие природы за противника равносильно планированию посева с учетом наиболее небла- неблагоприятных условий; если же погодные условия окажутся благоприятными, то выбранный план даст возможность увеличить доход. Налицо антагонистический конфликт, в котором у игрока А две стратегии — А\ и Ai, а у игрока В три — В\ (засушливое лето), Bi (нормальное лето) и Щ (дождливое лето). В качестве выигрыша игрока А возьмем прибыль от реализации и будем считать, что расчеты прибыли сельскохозяйственного предприятия (в млрд руб.) в зависимости от состояний погоды сведены в следующую матрицу (8 5 3\ \2 3 б)' Нетрудно заметить, что седловой точки у этой матрицы нет. Поэтому оптимальная стратегия игро- игрока А будет смешанной. Применяя графический метод, получаем Замечание. Здесь мы столкнулись со сравнительно редкой ситуацией, когда оптимальная смешан- смешанная стратегия одного из игроков допускает так называемую «физическую» реализацию. Полученное решение сельскохозяйственное предприятие может использовать так: на j всех площадей выращивать культуру А |, на j всех плошадей выращиватькультуру Ai и получать прибыль в размере, не меньшем <Ц млрд руб.
§4. Примеры задач, сводимых к матричным играм 251 Пример 11. «Переговоры о заключении контракта между профсоюзом и администрацией». Рассмотрим фир- фирму, администрация которой ведет переговоры с профсоюзом рабочих и служащих о заключении кон- контракта. Предположим, что платежная матрица, отражающая интересы договаривающихся сторон, имеет следующий вид 75 70 80 95 105 60 90 100 65 55 35 50 45 40 50 55 Выплаты указаны в центах в час и представляют собой среднюю зарплату служащего фирмы вместе со всеми добавками. Тем самым, заданная матрица описывает прибыль профсоюза (игрок А) и затраты администрации фирмы (игрок В). Ясно, что профсоюз стремится максимизировать доходы рабочих и служащих, в то время как ад- администрации хотелось бы минимизировать собственные потери. Нетрудно заметить, что седловой точки у платежной матрицы нет. Кроме того, для дальнейшего анализа существенными являются лишь стратегии А\ и А$ игрока А и стратегии Bs и В$ игрока В (в этом нетрудно убедиться, воспользовавшись правилом доминирования стратегий). В результате со- соответствующего усечения получим матрицу /65 45 \ V50 55 ;• Элементы матрицы ( D 0 связаны с элементами предыдущей матрицы соотношениями 65 = 5-4 + 45, 45 = 5-4 + 45, 50 = 5-1+45, 55 = 5-2 + 45. Воспользовавшись графическим методом, в итоге получим Р = {5.0,0,|}, д'={0,0,5»|}, " = 53. Тем самым, профсоюзу следует выбирать стратегию А\ в 20 % случаев и стратегию А$ в 80 %. Что касается администрации, то ей следует выбирать стратегию Вз с вероятностью 0,4 и стратегию Вц с вероятностью 0,6. При этом ожидаемая цена игры равна 53. Замечание. Следует отметить, что если процесс переговоров будет повторяться много раз, то среднему должно сходиться к ожидаемому значению 53. Если же переговоры пройдут лишь единожды, то ре- реальный результат получится при выборе каждым игроком некоторой своей чистой стратегии. Поэтому один из игроков, профсоюз или администрация, будет неудовлетворен. Пример 12. «Локальный конфликт». Рассмотрим войну между двумя небольшими государствами А и В, которая ведется в течение 30 дней. Для бомбардировки небольшого моста — важного военного объекта страны В — страна А исполь- использует оба имеющихся у нее самолета. Разрушенный мост восстанавливается в течение суток, а каждый самолет совершает один полет в день по одному из двух воздушных маршрутов, соединяющих эти стра- страны. У страны В есть два зенитных орудия, при помощи которых можно сбивать самолеты страны А. Если самолет собьют, то некая третья страна в течение суток поставит стране А новый самолет. Страна А может послать самолеты либо по одному маршруту, либо по разным. Страна В может поместить либо обе зенитки на одном маршруте, либо по одной зенитке на каждый маршрут. Если один самолет летит по маршруту, на котором расположена одна зенитка, то этот самолет бу- будет сбит. Если два самолета летят по маршруту, на котором расположены две зенитки, то оба самолета будут сбиты. Если два самолета летят по маршруту, на котором расположена одна зенитка, то сбит будет только один самолет. Если самолет доберется до цели, то мост будет уничтожен. У страны А есть две стратегии: послать самолеты по разным маршрутам — А\, послать самолеты по одному маршруту — А^. У страны В — также две стратегии: поместить зенитки на разных маршрутах — В\, поместить зенитки на одном маршруте — Bi. Если страна А выберет стратегию А\, а страна В — стратегию В\, то страна А получит нулевой выигрыш, так как ни один из самолетов не достигнет цели. Если страна А выберет стратегию Ai, а страна В — стратегию В\, то хотя бы один самолет достигнет цели и вероятность разрушения моста будет равна 1. Если страна А выберет стратегию А\, а страна В — стратегию Bi, то вновь хотя бы один самолет достигнет цели и вероятность разрушения моста будет равна 1.
252 Глава XLVI. Матричные игры Если страна А выберет стратегию Ai, а страна В — стратегию Вг, то страна А с вероятно- вероятностью 1/2 выберет маршрут, на котором установлены зенитки, и, следовательно, цель будет уничтожена с вероятностью 1/2. Оформим результаты проведенного анализа в стандартной игровой форме: 0 1 1 1/2 При помощи графического метода получаем оптимальные смешанные стратегии игроков и цену игры Это означает, что если страна А будет посылать самолеты по разным маршрутам в течение десяти дней из тридцати, отпущенных на войну (и, значит, по одному маршруту в течение двадцати дней), то в среднем страна А будет иметь 66,7 % удачных случаев (мост будем находиться в нерабочем состо- состоянии). Воспользовавшись для своих зениток предложенным выбором, страна В не позволит бомбить мост чаще, чем в 66,7 % случаев. § 5. Несколько слов в заключение Матричные игры моделируют конфликтные ситуации, в которых каждая из сторон- участниц делает свой ход одновременно со второй стороной. При этом наибольший интерес представляет случай, когда игра не заканчивается сразу же после совершения игроками одной такой пары одновременных ходов, а повторяется многократно. При- Причем считается, что перед каждым возобновлением игры игроки не получают никаких новых сведений ни о конфликте, ни о возможных действиях противной стороны. Ины- Иными словами, при многократном повторении матричной игры каждая из сторон всякий раз оказывается перед выбором некоторой стратегии из одного и того же множества стратегий, неизменного у каждого из игроков. Тем не менее, в таких многократно повторяющихся обстоятельствах большую роль играет анализ игры, как предварительный, так и промежуточный. В результате разумно проведенного предварительного анализа матричной игры за- заинтересованная в анализе сторона может определить свою линию поведения (правило выбора стратегий) на всю серию игр. Разумеется, описанный нами выше максимин- ный подход является далеко не единственным средством. Однако не следует забы- забывать, что принципиальной особенностью этого подхода является то обстоятельство, что игрок, придерживающийся выводимого на его основе правила выбора стратегий, заранее может довольно точно оценить нетривиальные размеры своего гарантирован- гарантированного выигрыша. Кроме того, максиминный подход позволяет сводить задачу поиска решения игры к рассмотрению сравнительно несложных задач линейного програм- программирования и, тем самым, получать эффективные рекомендации по тому, как лучше выбирать стратегии в конкретной игре при многократном ее повторении. Если игра повторяется много раз, то некоторые дополнительные сведения — какие именно стратегии выбирает противная сторона и какими правилами выбора стратегий она руководствуется — игрок все же получает. На основании этих сведений и резуль- результатов предварительного анализа игры он может довольно точно оценить противника и, если тот не придерживается компромиссного максиминного подхода, внести соот- соответствующие изменения в собственную линию поведения и увеличить выигрыш. §6.0 классификации игр Реальные конфликтные ситуации приводят к различным видам игр. К настоящему времени общепризнанной классификации игр пока не сложилось. Тем не менее, легко
§6.0 классификации игр 253 заметить, что игры различаются по целому ряду признаков: по количеству участву- участвующих в них игроков, по количеству возможных стратегий, по характеру взаимоот- взаимоотношений между игроками, по характеру выигрышей, по виду функций выигрышей, по количеству ходов, по характеру информационной обеспеченности игроков и т. д. Остановимся на этих различиях чуть подробнее. В зависимости от количества игроков определяют игры трех типов: игры одного игрока (в теории игр, как правило, не рассматриваются), игры двух игроков (наиболее изученный класс игр) и игры п игроков (успехов в изучении которых сравнительно немного вследствие возникающих принципиальных трудностей). По количеству стратегий игроков игры делятся на конечные (каждый из игроков имеет конечное число возможных стратегий) и бесконечные (где хотя бы один из игро- игроков имеет бесконечное количество возможных стратегий). По характеру взаимоотношений между игроками игры делятся на бескоалиционные (в которых игроки не имеют права вступать в соглашения и образовывать коалиции), коалиционные (в которых игроки могут вступать в соглашения и образовывать коа- коалиции) и кооперативные (в которых соглашения, связывающие игроков, определены наперед и обязательны). По характеру выигрышей различают игры с нулевой суммой (общий капитал игроков не изменяется, а просто перераспределяется между игроками в зависимости от полу- получающихся исходов) и игры с ненулевой суммой. Игру двух игроков с нулевой суммой часто называют антагонистической, вслед- вследствие того, что цели игроков в них прямо противоположны: выигрыш одного из игро- игроков происходит только за счет проигрыша другого. По виду функций выигрышей игры делятся на: матричные игры (рассмотренные выше), биматричные игры, игры типа дуэлей, непрерывные игры, выпуклые игры и др. По количеству ходов игры делятся на одношаговые (завершающиеся после одного хода каждого из игроков) и многошаговые, которые, в свою очередь, делятся на позици- позиционные игры (каждый из игроков может последовательно во времени делать несколько ходов), стохастические игры (где при выборе новых позиций имеется определенная вероятность возврата на предшествующую позицию), дифференциальные игры (в кото- которых допускается делать ходы непрерывно и подчинять поведение игроков условиями, описываемыми дифференциальными уравнениями), игры типа дуэлей (характеризу- (характеризующиеся моментом выбора хода и вероятностями получения выигрышей в зависимости от времени, прошедшего от начала игры до момента выбора). По характеру информационной обеспеченности игроков различают игры с полной информацией (на каждом ходе игры каждому игроку известно, какие выборы были сделаны ранее всеми игроками) и игры с неполной информацией (если в игре не все известно о предыдущих выборах). Существуют, разумеется, и другие виды игр. В зависимости от вида игры разрабатывается и метод ее решения. Однако читатель, видимо, уже заметил, что структура предложенного выше описания основных напра- направлений различения игр не является древовидной: одни и те же виды игр оказываются в разных классах. Впрочем, возможны и иные подходы к разбиению игр. Далее мы рассмотрим некоторые из указанных видов игр, а именно позиционные и биматричные игры.
Глава XLVII ПОЗИЦИОННЫЕ ИГРЫ Во многих практически важных конфликтных ситуациях, располагая той или иной информацией об их прошлом развитии, стороны-участницы совершают свой выбор не раз и навсегда, а последовательно во времени, шаг за шагом. Тем самым, они используют стратегии, отражающие как динамику конфликта, так и степень собствен- собственной информированности о фактически складывающейся обстановке в развитии этого конфликта. § 1. Структура позиционной игры Рис. 1 Одним из классов игр, описывающих конфликты, динамика которых оказывает вли- влияние на поведение участников, являются так называемые позиционные игры. Позиционная игра — это бескоалиционная иг- игра, моделирующая процессы последовательного принятия решений игроками в условиях меняю- меняющейся во времени и, вообще говоря, неполной информации. Процесс самой игры состоит в последователь- последовательном переходе от одного состояния игры к дру- другому состоянию, который осуществляется либо путем выбора игроками одного из возможных действий в соответствии с правилами игры, ли- либо случайным образом {случайныйход). В качестве примеров позиционных игр мож- можно привести крестики-нолики, шашки, шахматы, карточные игры, домино и др. Интересно, что право выбора первого хода в этих играх часто определяется случайным образом. Состояния игры принято называть позициями (отсюда и название — позиционные игры), а возможные выборы в каждой позиции — альтернативами. Характерной особенностью позиционной игры является возможность представле- представления множества позиций в виде древовидного упорядоченного множества, которое называется деревом игры (рис. 1). Для определенности мы будем рассматривать позиционные игры, в каждой пози- позиции которых, кроме окончательных, ровно две альтернативы — первая и вторая. Замечание. Символ О, А или В в кружке указывает, кто из игроков (О, А или В) делает очередной ход в заданной позиции. При этом символом О обычно обозначается ход в игре, осуществляемый не игроком, а каким-нибудь случайным механизмом (иногда его называют природой). Например, в позиционной игре, представленной на рис. 1 своим деревом, первый ход производится случайно.
§ 1. Структура позиционной игры 255 Пользуясь графическим описанием игры, можно сказать, что процесс игры состоит в переходе от начальной позиции к окончательной через непосредственно следующие одна за другой промежуточные позиции. Каждая окончательная вершина определяет единственную цепь (последователь- (последовательность идущих друг за другом звеньев), связывающую начальную вершину с данной (рис. 2). Такая цепь называется партией. На рис. 2 одна из партий выделена жирными линиями. Число различных партий равно числу окончательных вершин (позиций). В каждой окончательной позиции задан чи- числовой выигрыш игрока А. Замечание. Мы будем рассматривать здесь только анта- антагонистические позиционные игры. В шахматах функция выигрышей игрока А (бе- (белых) определяется так: +1 на выигрываемых партиях, О на ничейных партиях, -1 на проигрываемых партиях. Функция выигрышей игрока В (черных) отлича- Рис 2 ется от функции выигрышей белых только зна- знаком. Различают позиционные игры с полной информацией и позиционные игры с неполной информацией. В позиционных играх с полной информацией (пример — шашки, шахматы) ка- каждый игрок при своем ходе знает ту позицию дерева игры, в которой он находится. В позиционных играх с неполной информацией (пример — домино) игрок, де- делающий ход, не знает точно, в какой именно позиции дерева игры он фактически находится. Этому игроку известно лишь некоторое множество позиций, включающее в себя его фактическую позицию. Такое множество позиций называется информаци- информационным множеством. Таким образом, в игре с неполной информацией игрок при своем ходе знает, в каком информационном множестве он находится, но ему неизвестно, в какой именно позиции этого множества. Позиции, принадлежащие одному и тому же информационному множеству, объ- объединяются пунктирными линиями. Рассмотрим примеры двух игр, состоящих из двух ходов, которые последовательно делают участвующие в ней игроки Аи В. Начинает игрок А: он выбирает одну из двух возможных альтернатив — число х, равное либо 1 (первая альтернатива), либо 2 (вторая альтернатива). На ход игрока А игрок В отвечает своим ходом, выбирая одну из двух возможных альтернатив — число у, равное либо 1 (первая альтернатива), либо 2 (вторая альтернатива). И в результате игрок А получает вознаграждение или вынужден платить штраф. Пример 13. 1-й ход. Игрок А выбирает число х из множества двух чисел {1,2}. 2-й ход. Игрок В выбирает число у из множества двух чисел {1,2}, зная выбор числа х игре- игреком А. Функция W(x, у) выплат игроку А за счет игрока В задается так )= 2. На рис. 3 показаны дерево игры и информационные множества.
256 Глава XLVII. Позиционные игры 1-1 -2 2 Рис.3 Рис.4 Пример 14. В случае, если выполнены все условия предыдущего примера, кроме одного — хода игро- игрока В, 2-й ход — игрок В выбирает число у из множества двух чисел {1, 2}, не зная выбора числа х игроком А, информационные множества выглядят так, как показано на рис.4. §2. Нормализация позиционной игры Заранее определенную последовательность ходов игрока, выбранную им в зависимости от информации о ходах другого игрока и ходах игрока О (природы), будем называть чистой стратегией этого игрока. В том случае, если в игре нет случайных ходов (игрок О в игре не участвует), выбор игроком А и игроком В чистых стратегий однозначно определяет исход игры — приводит к окончательной позиции, где игрок А и получает свой выигрыш. Это обстоятельство позволяет сводить позиционную игру к матричной игре. Процесс сведения позиционной игры к матричной называется нормализацией по- позиционной игры. Покажем на нескольких примерах, как это делается. Пример 13 (продолжение). Опишем стратегии игроков. Стратегию игрока А можно задать одним числом х, показывающим, какую альтернативу, первую или вторую, выбрал игрок. Тем самым, у игрока А две чистых стратегии: А\ — выбрать х — 1, Ai — выбрать х — 2. Стратегию игрока В, принимая во внимание, что выбор игрока А на 1-м ходе ему известен, удобно описывать упорядоченной парой Здесь t/i (т/| = 1,2) — альтернатива, выбираемая игроком В при условии, что игрок А выбрал первую альтернативу, х — 1, a т/2 B/2 = 1> 2) — альтернатива, выбираемая игроком В при условии, что игрок А выбрал вторую альтернативу, х = 2. Например, выбор игроком В стратегии [2, 1] означает, что если на 1-м ходе игрок А выбрал х = 1, то игрок В на своем ходе должен выбрать у — 2. Если же на 1-м ходе игрок А выбрал х = 2, то согласно этой стратегии игрок В на своем ходе должен выбрать у = 1. Таким образом, у игрока В четыре чистых стратегии: В\ — [1,1]. У = 1 при любом выборе х; Вг — [1J], у = х при любом выборе х\ В] — [2, 1], у Ф х при любом выборе х\ В*, — [2, 2], у = 2 при любом выборе х. Покажем теперь, как рассчитываются выигрыши игрока А в зависимости от примененных страте- стратегий. Пусть, например, игрок А выбрал стратегию А\ — A), а игрок В — стратегию В 2 — [1,2]. Тогда х = 1, а из стратегии [1, 2] вытекает, что у = 1. Отсюда Остальные выигрыши рассчитываются совершенно аналогично.
§2. Нормализация позиционной игры 257 Результаты расчетов записываются обычно или в виде таблицы выигрышей игрока А At А2 х= 1 х = 2 В\ [1,1] W(l, 1) WB, 1) в2 [1,2] W(l, 1) WB,2) Bi [2,1] И^A,2) WB, 1) в4 [2,2] W(l,2) WB,2) или в виде матрицы игры 2-2 2/' где, как обычно, строки соответствуют стратегиям игрока А, а столбцы — стратегиям игрока В. Полученная матрица имеет седловую точку. Оптимальные стратегии игроков: А] — A) и Бз — [2, 1]. Тем самым, игрок А на 1-м ходе выбирает х = 1, а игрок В на 2-м ходе выбирает у = 2. Цена игры v — — 1. Пример 14 (продолжение). Опишем стратегии игроков. У игрока А они те же, что и в предыдущем примере: А\ — выбрать х = 1, А2 — выбрать х = 2. Так как игроку В выбор игрока А неизвестен, то есть игрок В не знает, в какой именно из двух позиций он находится (см. рис. 4), то у него те же две стратегии: В\ — выбрать у = 1, В2 — выбрать у = 2. Соответствующие таблица выигрышей игрока А и матрица игры имеют следующий вид At А2 1= 1 1 = 2 я. У = 1 W(i,l) WB,1) Вг у = 2 W(l,2) WB,2) Полученная матрица седловой точки не имеет. Оптимальные смешанные стратегии игроков: Р = {2/3,1/3} и Q - {1/2,1/2}. Цена игры v = 0. Замечание 1. На этих двух примерах хорошо видно, что результат сведения позиционной игры к ма- матричной напрямую зависит от степени информированности игроков. В частности, отсутствие у игро- игрока В сведений о выборе, сделанном игроком А, приводит к уменьшению количества его возможных стратегий. Сравнивая ответы, полученные в примерах 13 и 14, замечаем, что снижение уровня инфор- информированности игрока (в данном случае — игрока В) делает для него исход игры менее благоприятным. Замечание 2. Приведенные выше примеры не исчерпывают всех возможных вариантов даже в этом, самом простом, случае двухходовых позиционных игр. Рассмотрим теперь несколько примеров сведения к матричным играм позиционных игр, состоящих из трех ходов, сосредоточив при этом основное внимание на одном из наиболее ответственных шагов нормализации — описании стратегий игроков. Пример 15. 1-й ход делает игрок А: он выбирает число х из мно- множества двух чисел {1, 2}. 2-й ход делает игрок В: зная выбранное игроком А 1\ /2 1\ /2 1\ /2 1\ /2 число х, он выбирает число у из множества двух чисел 3-й ход делает игрок А: не зная о выбранном игро- игроке В числе у на 2-м ходе и забыв выбранное им самим на 1-м ходе число х, он выбирает число z из множества двух чисел {1, 2}. После этого игрок А получает вознаграждение W(x, у, z) за счет игрока В, например, такое: 1 1) = —2 WB 11)= 3 = 4, = 0. Рис.5 l, 2, 2) =-4, WB,2,2)= 5. На рис. 5 показаны дерево игры и информационные множества.
258 Глава XLVII. Позиционные игры Нормализуем эту игру. Поскольку игроку В выбор игрока А на 1-м ходе известен, то у игрока В те же четыре стратегии, что и в примере 13: о\ — [1, 1J, i>2 — |1, Ц, х»з — [2, 1J, i>4 — l^, ?]¦ Игрок А на 3-м ходе не знает предыдущих выборов — ни значения х, ни значения у. Поэтому ка- каждая его стратегия состоит просто из пары чисел (х, z), где х (х = 1, 2) — альтернатива, выбираемая игроком А на 1-м ходе, a z (z = 1, 2) — альтернатива, выбираемая игроком А на 3-м ходе. Например, выбор игроком А стратегии B, 1) означает, что на 1-м ходе он выбирает х = 2, а на 3-м ходе — z = 1. Таким образом, у игрока А четыре стратегии: А\ — A,1). Ai — A, 2), Л.3 — B, 1), Л.4 — B, 2). Покажем теперь, как рассчитываются выигрыши игрока А в зависимости от стратегий, применя- применяемых в данной игре. Пусть, например, игрок А выбрал стратегию А2 — A, 2), а игрок В — стра- стратегию Bj — [2, 1]. Тогда г = 1, откуда вытекает, что у = 2. Значение z = 2 выбрано игроком А независимо от выбора игрока В. Вычисляя значение функции выигрышей для этого набора, получаем В результате подобных рассуждений получаются и остальные пятнадцать выигрышей. Это позво- построить таблицу выигрышей игрока А. Имеем ляет А\ А2 А3 м A, 0, B, B, 1) 2) 1) 2) В [1, W(l, wo, WB, WB, 1] 1, 1, 1, 1, 1) 2) 1) 2) B2 [1, wo, wo, WB, WB, 2] 1, 1, 2, 2, 1) 2) 1) 2) В [2, W(l W(\ WB, WB, 3 1] 2,1) 2,2) 1,1) 1,2) Ba [2,2] WO, 2, WO, 2, WB, 2, WB, 2, 1) 2) 1) 2) или Пример 16. 1-й ход делает игрок А: он выбирает число х из мно- множества двух чисел {1,2}. 2-й ход делает игрок В: не зная о выборе игрока А на 1-м ходе, он выбирает число у из множества двух чи- чисел {1,2}. 3-й ход делает игрок А: он выбирает число z из мно- множества двух чисел {1, 2}, не зная ни значения х, ни зна- значения у. После этого игроки расплачиваются по правилу, указанному в примере 15. Графическое представление этой игры показано на рис. 6. Ясно, что у игрока А те же четыре стратегии, что рис, б и в примере 15: А,-A,1), Л2 — A,2), Аз-B,1), А4-B,2). У игрока В всего две стратегии: В\ — выбрать у - 1, В2 — выбрать у — 2. В этом случае (весьма слабой информированности игроков) таблица выигрышей игрока А и соот- соответствующая матрица строятся совсем просто. Имеем
§2. Нормализация позиционной игры 259 Ax A2 A3 AA A,1) A,2) B,1) B,2) Bx y = i W(l, 1,1) W(l, 1, 2) WB, 1, 1) WB, 1, 2) B2 У-2 Щ1,2, 1) Щ1,2, 2) WB, 2, 1) Щ2, 2, 2) Оптимальные смешанные стратегии игроков и цена игры соответственно раьны. В следующем примере информационные множества выглядят немного иначе. Пример 17. 1-й ход делает игрок А: он выбирает число х из мно- множества двух чисел {1,2}. 2-й ход делает игрок В: не зная о выборе игрока А на 1-м ходе, он выбирает число у из множества двух чи- чисел {1,2}. 3-й ход делает игрок А: он выбирает число z из мно- множества двух чисел {1, 2}, зная выбор у игрока В на 2-м ходе, но не помня собственного выбора х на 1-м ходе. После этого игроки расплачиваются по правилу, указанному в примере 15. Графическое представление этой игры показано на рис. 7. Поскольку игроку В неизвестен выбор игрока А на 1-м ходе, то, выполняя свой ход, он не знает, в какой именно из двух возможных позиций он находится. По- Поэтому у игрока В всего две стратегии: В] — выбрать у = 1, В2 — Рис.7 выбрать у = 2. При описании стратегий игрока А нужно исходить из того, что к 3-му ходу игрок А утрвтил сведе- сведения о собственном выборе на 1-м ходе, но ему известен выбор игрока В на 2-м ходе. Поэтому выбор числа z игроку А следует связать с известным ему к 3-му ходу значением у. Удобнее всего это сделать по аналогии с расчетом стратегий игрока В в примерах 13 и 15, т.е. при помощи упорядоченной пары [zuz2\. Здесь Z\ (z\ = 1, 2) — альтернатива, выбираемая игроком А при условии, что игрок В выбрал первую альтернативу, у = 1, a zi (z2 = 1, 2) — альтернатива, выбираемая игроком А при условии, что игрок В выбрал вторую альтернативу, у = 2. Чистую стратегию игрока А в данной игре можно записать так Здесь х (х = 1, 2) — альтернатива, которую игрок А выбирает на 1-м ходе, z\ (z\ = 1,2) — аль- альтернатива, которую игрок А выбирает на 3-м ходе, если на 2-м ходе игрок В выбрал выбрал первую альтернативу (у = 1) и z2 (z2 = 1, 2) — альтернатива, которую игрок А выбирает на 3-м ходе, если на 2-м ходе игрок В выбрал вторую альтернативу (у = 2). Например, выбор игроком А стратегии B, [2, 1]) означает, что на 1-м ходе игрок А выбирает х = 2, а на 3-м z = 2, если игрок В выбрал у — 1, и z = 1, если игрок В выбрал у — ?. Тем самым, у игрока А восемь чистых стратегий: Л,-A,[1,1]), Л2-(!,[!, 2]). А, - A, [2, 1]), А4 - A, [2, 2]), Л5-B,[1,1]). 45-B, [1,2]), Л7-B,[2, 1]), А8 - B, [2, 2]). Покажем теперь, как в зависимости от применяемых стратегий определяются элементы таблицы выигрышей игрока А. Пусть, например, игрок А выбрал стратегию А$ — A, [2, 1]), а игрок В — стратегию В2 — B) Тогда х = 1, у = 2, а из [2, 1] вытекает, что z = 1. Отсюда По этой же схеме вычисляются и остальные элементы таблицы.
260 . Глава XLVII. Позиционные игры В результате получаем Ах Аг Аг Аа Аь А6 Ау Аь A, A, A, A, B, B, B, B, [1,1]) [1,2]) [2, 1]) [2, 2]) |1,М) [1,2]) [2, 1]) [2, 2]) Вх A) Иф, 1, wo, 1, Щ1, 1, WB, 1, WB, 1, WB, 1, WB, 1, 1) 1) 2) 2) О 1) 2) 2) B2 B) ^A, 2,1) Щ1,2,2) WO, 2,1) WO, 2, 2) WB, 2, 1) WB, 2, 2) WB, 2, 1) WB, 2, 2) /-2 1\ -2 -4 4 1 4 -4 3 5 0 -3 0 5 Оптимальные смешанные стратегии игроков и цена игры соответственно равны: р = {о,о, |,о,о, |, о, о}, д = {1,1}, 1/ = Я. Рис.8 Рассмотрим позиционную игру со случайным ходом. Пример 18. 1-й ход производится случайно: игрок О выбирает число х, равное 1, с вероятностью 0,5 и равное 2 с та- такой же вероятностью. 2-й ход делает игрок А: он выбирает число у из мно- множества двух чисел {1, 2}, не зная результатов случайного выбора на 1-м ходе. 3-й ход делает игрок В: он выбирает число z из мно- множества двух чисел {1, 2}, зная о том, какое именно чи- число х случайно выбрано игроком О на 1-м ходе и не зная выбора у игрока А на 2-м ходе. После этого игроки расплачиваются, используя фун- функцию W(x, у, z), ту же, что и в предыдущих примерах. Графическое представление этой игры показано на рис. 8. Опишем стратегии игроков Поскольку игроку А исход случайного испытания не- неизвестен, то он имеет всего две стратегии: Ах-A), А2-B). При построении своих стратегий игроку В естественно воспользоваться имеющейся у него инфор- информацией о результате 1-го хода. Это позволит ему описать свою стратегию упорядоченной парой [zx,z2]. Здесь Z| {z\ = 1,2) — альтернатива, выбираемая игроком В при условии, что х = 1, a z2 (z2 = 1, 2) — альтернатива, выбираемая игроком В при условии, что х — 2. Тем самым, у игрока В четыре стратегии: В, -[1,1], В2-[1,2], В3-[2, 1], Я4-[2,2]. Покажем теперь, как определяются элементы таблицы выигрышей игрока А. Пусть, например, игрок А выбрал стратегию Ах — A), а игрок В — стратегию Вз — [2, 1]. Различаются два случая 1) х= 1 и 2) х = 2. Если х — 1, то стратегия Вз указывает игроку В его выбор z = 2. А так как у = 1, то в результате имеем (,y,) (,,) Если х = 2, то стратегия Вз указывает игроку В его выбор z = 1. А так как у = 1, то в результате имеем , 1) = 3.
§2. Нормализация позиционной игры. .261 Поскольку первая и вторая альтернативы на 1-м ходе выбираются с вероятностями 0,5 и 0,5, то и вышеуказанные выигрыши появляются с теми же вероятностями и, следовательно, средний выигрыш игрока А при этих стратегиях определяется так 4 • 0,5 + 3 • 0,5 = 3,5. Аналогичным образом рассчитывая остальные средние выигрыши, получаем при х = 1 Ax A2 A) B) В [1, W(l, W(l, 1 1] 1, 2, 1) 1) я2 [1,2] W(l, 1, W(l,2, 1) 1) В [2, W(l, W(l, 3 1] 1,2) 2,2) В [2, W(l, W(l, 4 2] 1,2) 2,2) или /-2-2 4 4\ V 1 1 -4 -4 у ' при х = 2 A, Л2 A) B) Bx [1,1] WB, 1, WB, 2, 1) 1) [1, WB, WB, 2 2] 1, 2, 2) 2) [2, WB, WB, 3 1] 1, 2, 1) 1) Б [2, WB, WB, A 2] 1, 2, 2) 2) или 3 0 3 0 ¦3 5-3 5 Искомая матрица игры имеет следующий вид ,5 -1 3,5 0 [ 3 -3,5 О 0 \ ,5) • Наконец, рассмотрим пример позиционной игры со случайным разыгрыванием права первого хода. Пример 19. 1-й ход делает игрок О, выбирая число х, равное 1 с вероятностью 2/3 и равное 2 с вероятностью 1/3. Если х = 1, то на 2-м ходе игрок А выбирает чи- число у из множества двух чисел {1,2}, зная результат случайного выбора на 1-м ходе, а на 3-м ходе игрок В выбирает число z из множества двух чисел {1, 2}, зная х, но не зная у. Если х = 2, то на 2-м ходе игрок В выбирает чи- число у из множества двух чисел {1, 2}, зная результат случайного выбора на 1-м ходе, а на 3-м ходе игрок А выбирает число z из множества двух чисел {1,2}, зная х, но не зная у. После этого игроки расплачиваются, используя фун- функцию W(x, у, z), ту же, что и в предыдущих примерах. рис ^ Графическое представление этой игры показано на рис. 9. Чистую стратегию игрока А в данной игре можно описать упорядоченной парой где у (у = 1, 2) — выбор игрока А на 2-м ходе, если на 1-м ходе выбрано х = 1, a z (z = 1, 2) — выбор игрока А на 3-м ходе, если на 1-м ходе выбрано х = 2. Например, стратегия |1, 2| означает, что на 2-м ходе игрок А выбирает у = 1, а на 3-м ходе — г = 2. Тем самым, у игрока А четыре стратегии: А, -|1, 1|, А2-|1,2|, Аз-|2,1|. А4-|2,2|. У игрока В те же четыре стратегии: Я1-|1,1|. Да-|1,2|, Я3-|2,1|. Я4-|2,2|.
262. Глава XLVII. Позиционные игры Покажем теперь, как находятся элементы матрицы выигрышей игрока А. Пусть, например, игрок А применяет стратегию Аг — |1, 2|, а игрок В — стратегию Bj — B, 1|. Различаются два случая 1) ж= 1 и 2) г = 2. По условию при х = 1 игрок А имеет возможность сделать только 2-й ход (выбрать у), а игрок В — только 3-й (выбрать z). При х = 2 их возможности меняются местами: игроку В предоставлено право 2-го хода (выбрать у), а игроку А — 3-го (выбрать z). Если х — 1, то стратегия Ai указывает игроку А при 2-м ходе взять у — 1, а стратегия Вз указывает игроку В при 3-м ходе взять z = 1. В результате Если х = 2, то стратегия Вз указывает игроку В при 2-м ходе взять у = 2, а стратегия указывает игроку А при 3-м ходе взять z = 2. В результате Поскольку первая и вторая альтернативы на 1-м ходе выбираются соответственно с вероятностями 2/3 и 1/3, то и найденные выигрыши появляются с теми же вероятностями. Следовательно, математи- математическое ожидание выигрыша игрока А при таких стратегиях рассчитывается так 1 3 з- Итак, при х = 1 A\ Аг Аз А* 11, И, 12, 12, 11 2| 1| 2| В 11, w(i, W(l, W(l, W(l, 1 i! i,i) i,i) 2,0 2,0 В |1, W(l, W(l, W(l, wo, 2| 1,2) 1,2) 2,2) 2,2) Вз 12, 1| wo, i,i) wo, i, О WO, 2,1) WO, 2, 1) B4 |2,2| WO, 1,2) WO, 1,2) WO, 2, 2) W(l,2,2) или -2 -2 1 1 4 4 -4 -4 -2 -2 1 1 4 4 -4 -4 при г = A\ Аг Аз Ал 11, И, 12, 12, 11 2| 11 2| 11, WB, WB, WB, WB, 1| M) 1,2) 1,0 1,2) Вг U, 2| WB, 1, 1) WB, 1, 2) WB, 1, 1) WB, 1, 2) B3 12, If WB, 2, 1) WB, 2, 2) WB, 2, 1) WB, 2, 2) B4 |2,2| WB, 2, WB, 2, WB, 2, WB, 2, О 2) 1) 2) или Отсюда получаем искомую матрицу игры 11 8 —5 -8
§3. Позиционные игры с полной информацией 263 Замечание. Графическое представление и функция вы- выигрышей полностью определяют позиционную игру. В рассмотренных выше примерах 16-19 мы пользовались одной и той же функцией и одним и тем же деревом. Отличие было только в маркировке вершин дерева и ин- информационных множествах. При построении последних необходимо соблюдать два правила: 1) в одно информационное множество могут вхо- входить позиции только одного игрока, 2) цепь, определяющая партию игры, может иметь с информационным множеством не более одной общей позиции. Как показывает рис. 10, и при таких ограничениях информационные множества могут выглядеть довольно рис необычно. § 3. Позиционные игры с полной информацией Позиционная игра называется игрой с полной информацией, если в каждой позиции любой ее партии игрок, делающий ход, знает, какие альтернативы были выбраны на предыдущих ходах. В графическом описании каждая вершина дерева такой игры представляет собой отдельное информационное множество. Примерами позиционных игр с полной информацией могут служить крестики- нолики, шашки и шахматы. Основная особенность позиционной игры с полной информацией состоит в том, что соответствующая ей матрица выигрышей всегда имеет седловую точку, то есть в игре с полной информацией существуют оптимальные чистые стратегии и, значит, равновесная ситуация. Сказанное означает, что в шахматах (крестиках-ноликах, шашках) уже в начальной позиции либо имеется способ выигрыша за белых, либо способ выигрыша за черных, либо как та, так и другая сторона способна форсировать ничью. Однако известное доказательство существования равновесной ситуации некон- неконструктивно и не дает эффективных приемов фактического нахождения решения игры. И такие способы (стратегии) в шахматах не найдены до сих пор, и даже неизвестно, какая из перечисленных возможностей имеет место на самом деле. Иное дело с игрой крестики-нолики: стратегий в ней немного и она разобра- разобрана до самого конца — существуют оптимальные чистые стратегии, ведущие игроков к ничьей. Рассмотрим несколько примеров. 1. Как нетрудно заметить, двухходовая игра из примера 11 является игрой с полной информацией. Ее нормализация приводит к матрице с седловой точкой (см. пример 13). 2. «Выкладывание монет на стол». Два игрока поочередно кладут монеты одинаковых размеров на обык- обыкновенный стол, всякий раз выбирая произвольное доступное место для монеты (взаимное накрывание монет не допускается). Тот из игроков, кто положит монету, не оставляющую места для новых монет, выигрывает. Это игра с полной информацией. Существует вполне определенная стратегия, обеспечивающая выигрыш тому из игроков, кто начинает игру. А именно, начинающий игру должен положить первую монету точно в центр стола и на каждый ход противника отвечать симметричным ходом. Исход игры от стратегии второго игрока не зависит. 3. «Переговоры». В переговорах участвуют две стороны А и В. В слегка идеализированном варианте это может выглядеть, например, так.
264. . Глава XLVII. Позиционные игры Сначала сторона А высказывает одно из нескольких предложений, способных заинтересовать сто- сторону В. Затем сторона В, ознакомившись с предложением стороны А, высказывает одно из нескольких встречных предложений, способных, по ее мнению, заинтересовать сторону А. В свою очередь, сто- сторона А, ознакомившись с реакцией стороны В на сделанные предложения, высказывает ей новое предложение, внеся одну из нескольких возможных корректировок в свое первоначальное предложение с учетом мнения стороны В и т. д. Если предмет переговоров сложен, то подобный обмен ходов может затянуться. Однако любые переговоры непременно заканчиваются. И там, на финише, ждет функция выигрышей. Попробуем смоделировать короткий переговорный процесс трехходовой позиционной игрой. Предположим, что переговоры заканчиваются через три хода, на каждом из которых соответствую- соответствующая сторона имеет возможность выбора из двух альтернатив, и опишем соответствующую позиционную игру. 1-й ход делает сторона А. она выбирает одно из двух возможных предложений — число х из мно- множества двух чисел {1, 2}. 2-й ход делает сторона В: она выбирает число у из множества двух чисел {1, 2}, зная число х, предложенное стороной А. 3-й ход делает сторона А: она выбирает число z из множества двух чисел {1, 2}, зная о предло- предложении стороны В на 2-м ходе и помня собственное предложение на 1-м ходе. После этого сторона А либо получает вознаграждение (например, в виде кредита от стороны В), либо выплачивает стороне В штраф. Все эти возможности описываются функцией выигры- а Ь С d e f ah шей W(x, у, z), заданной следующей таблицей 1, 2) = Ь, WB,1, 2) = /. 2, 1) = с, WB, 2, 1) = д, 2, 2) = d, W{2, 2, 2) = h. Графическое представление этой игры показано на рис.11. Ясно, что описанная позиционная игра является иг- игрой с полной информацией. Начнем с описания возможных стратегий игрока В. Поскольку игроку В выбор игрока А на 1-м ходе из- известен, то у игрока В те же четыре стратегии, что и в при- примере 13. Рис.11 [2,2]. С описания возможных стратегий игрока А дело обстоит немного посложнее — их восемь. Чистая стратегия игрока А в данной игре описывается упорядоченной тройкой Здесь х (х = 1, 2) — альтернатива, которую игрок А выбирает на 1-м ходе, Z\ (z\ = 1, 2) — аль- альтернатива, которую игрок А выбирает на 3-м ходе, если на 2-м ходе игрок В выбрал выбрал первую альтернативу (у = 1) и z-i (Z2 = 1, 2) — альтернатива, которую игрок А выбирает на 3-м ходе, если на 2-м ходе игрок В выбрал вторую альтернативу (у = 2). Например, выбор игроком А стратегии A, [2, 1]) означает, что на 1-м ходе игрок А выбирает х = 1, а на 3-м z = 2, если игрок В выбрал у = 1, и z = 1, если игрок В выбрал у = 2. Тем самым, у игрока А восемь чистых стратегий: А,-A,11,1]). А2-О,[1,2]), А3 - A, [2, 1]), Аа - A, [2, 2]), As - B, [1, 1]), Аб-B,[1,2]), А-, - B, [2, 1]), А% - B, [2, 2]). Покажем теперь, как в зависимости от применяемых стратегий определяются элементы таблицы выигрышей игрока А. Пусть, например, игрок А выбрал стратегию Аь — B, [1, 2]), а игрок В —стратегию В$ — [2,1]. Тогда х = 2. Из [2, 1] вытекает, что у = 1, а из B, [1, 2]), что z = 1. Отсюда Рассчитывая по этой же схеме все остальные элементы таблицы выигрышей, в итоге получим
§4. Несколько слов в заключение. 265 Ax Аг Аг М As Аь An А% (!,[!,!]) A,U,2J) 0,12,11) 0,12,21) B, [1,1]) B, [1,21) B, [2, 1]) B,[2, 2]) Вх [1,1] W(\, 1, 1) W(l,l,l) W(l,l,2) W(l,l,2) WB, 1, 1) WB, 1, 1) WB,1, 2) WB,l,2) B2 [1,2] W(l, 1, W(l, 1, w(l,l, W(l,l, WB, 2, ^B, 2, WB,2, WB, 2, 1) 1) 2) 2) 1) 2) 1) 2) ? [2, W(l, W{\, W{\, W(l, WB, WB, WB, WB, 3 1] 2,0 2,2) 2,1) 2,2) 1,0 M) 1,2) 1,2) В [2, Wll w{\ W(l, W(\ WB WB WB, WB, 2] 2,0 2,2) 2,1) 2,2) 2,0 2,2) 2,0 2,2) /а а с с\ a a d d b b с с b b d d e g e g e h e h f 9 f 9 f h f M Вследствие того, что рассматриваемая позиционная игра является игрой с полной информацией, полученная матрица имеет седловую точку при любой функции выигрышей. В этом легко убедиться, произвольно выбирая значения параметров а, Ь, с, d, e, f, g и h. При увеличении числа ходов стратегии в позиционной игре с полной информацией строятся по аналогичной схеме. Рассмотрим, например, четырехходовую позиционную игру. 1-й ХОД делает игрок А: он выбирает число х из множества двух чисел {1,2}. 2-й ход делает игрок В: он выбирает число у из множества двух чисел {1, 2}, зная число х, выбранное игроком Л на 1-м ходе. 3-й ход делает игрок А: он выбирает число z из множества двух чисел {1, 2}, зная число у, выбранное игроком В на 2-м ходе, и помня свой выбор числа ж на 1-м ходе. 4-й ход делает игрок В: он выбирает число и из множества двух чисел {1,2}, зная число г, выбранное игроком А на 3-м ходе, помня свой выбор числа у на 2-м ходе и зная выбор игрока А на 1-м ходе — число х. После этого игроки А и В расплачиваются в соответствии с заданной функцией выигрышей W(x,y,z,u). В этой игре стратегии у игрока А те же, что и в задаче, рассмотренной выше: каждая из них задается тройкой вида ( и общее их число равно восьми. Что касается стратегий игрока В, то в этой игре их шестнадцать и каждая из них задается четвер- четверкой вида Матрица выигрышей игрока А в данной игре имеет размер 8 ж 16. Покажем, как определяются ее элементы в зависимости от применяемых стратегий игроков. Пусть, например, игрок А выбрал стратегию А' — B, [2,1]), а игрок В стратегию В' — ([2,1], [1, 2]). Тогда х = 1, у — 2, а z = 1. Из того, что [ui, «г] = [1, 2], получаем, что и = 1. Отсюда следует, что искомый элемент матрицы выплат равен W(l,2, 1,1). Остальные элементы матрицы вычисляются аналогично. Так как эта позиционная игра также является игрой с полной информацией, то получаемая матрица будет иметь седловую точку. § 4. Несколько слов в заключение В рассмотренных примерах основное внимание было уделено описанию процесса нормализации позиционной игры — построению дерева игры и информационных множеств, выработке стратегий игроков и вычислению элементов платежной матрицы. Следующий естественный шаг — отыскание цены игры и оптимальных стратегий игроков — проводится методами, о которых рассказывалось в главе, посвященной матричным играм.
266. Глава XLVII. Позиционные игры Мы достаточно подробно остановились на позиционных играх двух лиц, где были явно выражены интересы одного из игроков (игрока ^4). Следует, однако, иметь в виду, что в одних случаях интересы игрока В могут быть полностью противоположными интересам игрока А, в то время как в других вполне может оказаться, что то, что хорошо для одного игрока, не обязательно плохо для другого. Приведем два простых примера. Пример А. 1-й ход. Игрок А выбирает число х из множества двух чисел {1, 2}. 2-й ход. Игрок В выбирает число у из множества двух чисел {1,2}, зная выбор числа х игроком А. Функции выплат игрокам А и В — WA(x, у) и WB(x, у) соответственно — задаются так: WA(l,2) = -l, WAB,l) = -2, WA{2,2) = 2, WBA,2) = 1, WBB,l) = l, WBB,2) = 2. Дерево игры показано на рис. 12. Исход игры зависит от того, каковы намерения игрока В — максимизировать свой выигрыш: WB(x, у) -*• max, или максимизировать свой относительный выигрыш: WB(x, у) - WA(x, у) -* max. В первом случае это достигается так. у=1 и WB(l,l) = 2(WA(\,l) = l); у = 2 и WBB, 2) = 2 (WA{2, 2) = 2). при х = 1 при х = 2 Во втором случае: при х = 1 у = 2 при х = 2 у = 1 и WB(l,2)-WA(l,2) = l-(-l) = 2); и WBB, 1) - WAB, 1) = 1 - (-2) = 3). A,2) (-1,1) (-2,1) B,2) A,4) C,3) B,2) Рис. 12 Рис. 13 Пример Б. Игра задается деревом (см. рис. 13). 1-й ход. Игрок А выбирает число х из множества двух чисел {1, 2}. Если х = 1, то каждый из игроков получает свой выигрыш, равный 2. Если х = 2, то право 2-го хода получает игрок В, где он и выбирает выбирает число у из множе- множества двух чисел {1, 2}. При у = 1 выигрыш игрока А равен 1, а игрока В — 4. При у — 2 оба игрока получают поровну — по 3. В случае, когда каждый из игроков стремится к получению максимального выигрыша и любые виды кооперации запрещены, исход игры ясен — игрок А выбирает х = 1, и игра заканчивается. Но при х = 2 и у = 2 каждый из игроков получает по 3 (такой исход предпочтительнее простейшего A, 1)), и, если допустить соглашение между игроками, это обстоятельство вполне может изменить исход игры.
Глава XLVIII БИМАТРИЧНЫЕ ИГРЫ Предыдущие рассмотрения касались игр двух лиц, в которых интересы игроков были прямо противоположны (антагонистические, или матричные игры), а также позиционных игр, сводимых к матричным. Однако ситуации, в которых интересы игроков хотя и не совпадают, но уже не обязательно являются противоположными, встречаются значительно чаще. Рассмотрим, например, конфликтную ситуацию, в которой каждый из двух участ- участников имеет следующие возможности для выбора своей линии поведения: игрок А — может выбрать любую из стратегий А\,... , Ат, игрок В — любую из стратегий В\,... ,Вп. При этом всякий раз их совместный выбор оценивается вполне определенно: если игрок А выбрал г-ю стратегию А,, а игрок В — к-ю стратегию Bk, то в итоге выигрыш игрока А будет равен некоторому числу а^, а выигрыш игрока В некоторому, вообще говоря, другому числу &,-*. Иными словами, всякий раз каждый из игроков получает свой приз. Последовательно перебирая все стратегии игрока А и все стратегии игрока В, мы сможем заполнить их выигрышами две таблицы it ] Am вх . a,, . am\ • •• alk .. • • Q>mk • • • Bn . ain • ain • amn A, Af Am B\ bn bn bm\ ... Bk .. ... &1* .. ... bik .. ... bmk • &ln • bin Первая из таблиц описывает выигрыши игрока А, а вторая — выигрыши игрока В. Обычно эти таблицы записывают в виде матриц А = an a\k aik а B = bik b\n b m \ «ml • • • amk • • • «ran / \ yml ¦ • • vmk • • • «'mn Здесь A — платежная матрица игрока А, а В — платежная матрица игрока В. При выборе игроком А г-й стратегии, а игроком В — fc-й стратегии их выигрыши находятся в матрицах выплат на пересечении i-x строк и k-х столбцов: в матрице А это элемент а,*, а в матрице В — элемент Ьд. Таким образом, в случае, когда интересы игроков различны (но не обязатель- обязательно противоположны), получаются две платежные матрицы: одна — матрица выплат
268 Глава XLVIII. Биматричные игры игроку А, другая — матрица выплат игроку В. Поэтому совершенно естественно звучит название, которое обычно присваивается подобной игре — биматричная. Замечание. Рассматриваемые ранее матричные игры, разумеется, можно рассматривать и как бима- биматричные, где матрица выплат игроку В противоположна матрице выплат игроку А: (an ... aln \ / -an ... -aln \ ' B = -A= . "ml • • • amn I \ am\ • • • amn / ИЛИ A Тем не менее, в общем случае биматричная игра — это игра с ненулевой суммой. Нам кажется вполне естественным время от времени сопоставлять наши рассмотрения с рассуждениями, проведенными ранее для матричных игр (особенно при попытках разрешения схожих проблем). Подобные сопоставления часто оказываются одно- одновременно и удобными и полезными. Конечно, класс биматричных игр значительно шире класса матричных (разнообразие новых моделируемых конфликтных ситуаций весьма заметно), а, значит, неизбежно увеличиваются и трудности, встающие на пути их успешного разрешения. Впрочем, мы надеемся, что часть из этих трудностей мы сумеем преодолеть уже в настоящем издании. § 1. Примеры биматричных игр Примеры этого раздела описывают некоторые типические конфликтные ситуации, приводящие к биматричным играм. Сначала мы обсудим вопросы, связанные с фор- формализацией рассматриваемых конфликтов (построение платежных матриц), а позднее связанные с рекомендациями по их разрешению. Пример 20. «Борьба за рынки». Небольшая фирма (игрок А) намерена сбыть партию товара на одном из двух рынков, контролируемых другой, более крупной фирмой (игрок В). Для этого фирма А готова предпринять на одном из рынков соответствующие приготовления (например, развернуть рекламную компанию). Господствующая на рынках фирма В может попытаться воспрепятствовать этому, приняв на одном из рынков предупредительные меры (разумеется, в ремках закона). Не встречая противодей- противодействия на рынке, фирма А захватывает его; при наличии препятствий — терпит поражение, Будем считать для определенности, что проникновение фирмы А на первый рынок более выгодно для нее, нежели проникновение на второй. Естественно также считать, что и борьба за первый рынок потребует вложения ббльших средств. Например, победа фирмы А на первом рынке принесет ей вдвое больший выигрыш, чем победа на втором, но зато и поражение при попытке освоиться на первом рынке полностью ее разорит, а фирму В избавит от конкурента. Что же касается второго рынка, то при поражении фирмы А ее потери будут не столь разорительны, но и победа принесет немного. Таким образом, у фирмы А две стратегии: А\ — выбор первого рынка, Ai — выбор второго рынка. Такие же стратегии и у фирмы В: В\ — выбор первого рынка, Bi — выбор второго рынка. Для того, чтобы составить платежные матрицы игроков, нужны расчетные количественные показа- показатели, которые мы приведем здесь в условных единицах: *-(-? .?). ¦-(-? "?)• Взглянем на выписанные матрицы выплат. Из сказанного выше ясно, что если оба игрока выберут один и тот же рынок, то победа останется за более сильной фирмой В. То, что в ситуации (АиВ\) выигрыш игрока В равен 5, а в ситуации (Аг, Вг) — 1, подчерки- подчеркивает, что первый рынок более выгоден (удобно расположен, хорошо посещаем и т. п.), чем второй. Выигрыш (—10) игрока А в ситуации (А\,В\) (а точнее, проигрыш) в сопоставлении с его выигры- выигрышем (-1) в ситуации (Аг, В2) выглядит, разумеется, вполне сокрушительно. Что же касается ситуации, когда фирмы уделяют основное внимание разным рынкам (А\, Вг) и (А2, В\), то здесь фирму А ждет настоящий выигрыш, бдльший на более выгодном рынке. Потери, которые при этом несет фирма В, оказываются прямо противоположными.
§ 1. Примеры биматрмчных иф. .269 Замечание. Ясно, что точно рассчитать выгоду и ущерб сторон в этом конфликте заранее довольно трудно. А вот в следующей конфликтной ситуации размеры выигрышей игроков известны со всей определенностью. Пример 21. «Дилемма узников». Игроками являются два узника, находящихся в предварительном за- заключении по подозрению в совершении преступления. При отсутствии прямых улик возможность их осуждения в большой степени зависит от того, заговорят они или будут молчать. Если оба будут молчать, то наказанием будет лишь срок предварительного заключения (потери каждого из узников составят (—1)). Если сознаются, то получат срок, учитывающий признание как смягчающее обстоятельство (потери каждого из узников составят в этом случае (-6)). Если же заго- заговорит только один из узников, а другой будет молчать, то в этом случае заговоривший будет выпущен на свободу (его потери равны 0), а сохраняющий молчание получит максимально возможное наказание (его потери будут равны (—9)). Эта конфликтная ситуация приводит к биматричной игре, в которой каждый из игроков имеет по две стратегии — молчать (М) или говорить (Г). Выигрыши игроков А \л В соответственно описываются так: (М) (Г) (М) (Г) (М) (Г) -1 0 -9 -6 (М) (П -1 о -9 -6 Пример 22. «Семейный спор». Два партнера договариваются о совместном проведении одного из двух действий, A) и B), каждое из которых требует их совместного участия. В случае осуществления первого из этих двух действий выигрыш первого партнера (игрок А) будет вдвое выше выигрыша второго партнера (игрок В). Напротив, в случае осуществления второго из этих двух действий выигрыш игрока А будет вдвое меньше выигрыша игрока В. Если же партнеры выполнят различные действия, то выигрыш каждого из них будет равен нулю. Эта конфликтная ситуация приводит к биматричной игре, в которой каждый из игроков имеет по две стратегии. Выигрыши игроков А и В соответственно описываются таблицами следующего вида: A) B) @ 2 0 B) 0 1 0) B) @ 1 0 B) 0 2 Пояснение. Довольно понятно, что различные конфликтные ситуации могут иметь одну и ту же форма- формализацию. В частности, рассмотренная биматричная игра частно интерпретируется, как одновременный выбор супругами совместного развлечения: посещение оперного спектакля или хоккейного матча. При этом в посещении оперного театра жена заинтересована в большей степени, чем муж, а при посещении стадиона наблюдается обратная картина. В случае же непреодоления разногласий, возникших при выборе, день оказывается вообще испорченным. Отсюда и название, вынесенное в заголовок. Пример 23. «Студент — Преподаватель». Рассмотрим следующую ситуацию. Студент (игрок А) готовится к зачету, который принимает Преподаватель (игрок В). Можно считать, что у Студента две стратегии — подготовиться к сдаче зачета (+) и не подготовиться (—). У Преподавателя также две стратегии — поставить зачет [+] и не поставить зачета [-]. В основу значений функций выигрыша игроков положим следующие соображения: Выигрыш Студента [+] [-1 оценка заслуженв очень обидно удалось обмануть оценка заслужена Выигрыш Преподавателя [+1 (-1 все нормально был неправ дал себя обмануть опять придет Количественно это можно выразить, например, так (+] Н (+] Н -1 о 1 -2 -3 -1
270 Глава XLVIII. Биматричные игры §2. Смешанные стратегии В приведенных примерах (позже мы вернемся к подробному рассмотрению каждого) описаны ситуации, в которых интересы игроков не совпадают. Естественно встает вопрос о том, какие рекомендации необходимо дать игрокам для того, чтобы модели- моделируемая конфликтная ситуация разрешилась. Иными словами, что мы будем понимать под решением биматричной игры? Попробуем ответить на это вопрос так: вследствие того, что интересы игроков не совпадают, нам нужно построить такое {ком- {компромиссное) решение, которое бы в том или ином, но в одинаковом смысле удовлетворяло обоих игроков. Не пытаясь сразу выражать эту мысль совсем точно, скажем — попробуем найти некую равновесную ситуацию, явное отклонение от которой одного из игроков уменьшало бы его выигрыш. Подобный вопрос мы ставили и при рассмотрении матричных игр. Напомним, что возникающее при разработке минимаксного подхода понятие равновесной ситуации приводило нас к поиску седловой точки, которая, как оказалось, существует далеко не всегда — конечно, если ограничиваться только чистыми стратегиями игроков А и В, т.е. стратегиями ¦"I ) • • • ) -71) &\ ) • • • ) &П' Естественно ожидать, что в более сложном случае биматричной игры дело вряд ли обстоит проще. Однако при расширении матричной игры путем перехода к смешанным стратеги- стратегиям, т. е. к такому поведению игроков, при котором они чередуют (чистые) стратегии с определенными частотами: игрок А — стратегии А\,..., Ат с частотами р\, ...,рт, где m Р\ ^ 0, ... , рт *? 0, 2J Pi ~ *> 1=1 а игрок В — стратегии В\, ..., Вп с частотами q\, ..., qn, где Ч\ >0, ... , qn ^0, k=\ выяснилось, что в смешанных стратегиях равновесная ситуация всегда существует. Иными словами, любая матричная игра в смешанных стратегиях разрешима. Поэтому, рассматривая здесь биматричные игры, разумно попробовать сразу же перейти к смешанным стратегиям игроков (тем самым, мы предполагаем, что каждая игра может быть многократно повторена в неизменных обстоятельствах). В матричном случае смешивание стратегий приводило к расширению возможно- возможности выплат в том смысле, что расчет строился из вычисления средних выигрышей игроков А и В, которые определялись по элементам платежной матрицы А и вероят- вероятностям pi и qk". При смешанных стратегиях в биматричных играх также естественно возникают средние выигрыши игроков А и В, определяемые по правилам, в которых уже нет
§3. 2 X 2 биматричиые игры. Ситуация равновесия никакой дискриминации игрока В: 271 §3. 2x2 биматричные игры. Ситуация равновесия Мы предполагаем уделить основное внимание случаю, когда у каждого из игроков имеется ровно две стратегии, т. е. случаю т — п = 2. Поэтому нам кажется уместным выписать приведенные выше формулы именно для такого случая. В 2 х 2 биматричной игре платежные матрицы игроков имеют следующий вид ¦( «11 «12 «21 «22 в = &12 вероятности Р\=Р, 42 = 1 " Я, а средние выигрыши вычисляются по формулам , q) = aupq + anp(\ - q) + a2i(l -p)q + a22(l - нв(р, q) = bupq + b]2p(l - q) + &2i(l -p)q + Ь22A - где - q), - q), Сформулируем основное определение. Определение. Будем говорить, что пара чисел (р\я% о<р*< 1, о<«*<1, определяет равновесную ситуацию, если для любых р и q, подчиненных условиям 0^р<1, 0<д<1, одновременно выполнены следующие неравенства HA(pf q*) < HA{p\ q% HB{p\ q) < HB{p\ f). (*) Пояснение. Выписанные неравенства (•) означают следующее: ситуация, определяемая смешанной стратегией (р*, q*), является равновесной, если отклонение от нее одного из игроков при условии, что другой сохраняет свой выбор, приводит к тому, что выигрыш отклонившегося игрока может только уменьшиться. Тем самым, получается, что если равновесная ситуация существует, то отклонение от нее невыгодно самому игроку. Но может ли быть подобная ситуация равновесия в биматричной игре? Ответ на по- поставленный вопрос дает следующее утверждение. Теорема 4 (Дж. Нэш). Всякая биматричная игра имеет хотя бы одну равновесную ситуацию (точку равновесия) в смешанных стратегиях.
272 Глава XLVIII. Биматричные игры Заметим, что весьма похожее утверждение мы уже встречали при изучении вопро- вопроса разрешимости матричных игр. Напомним также, что в соответствующем разделе после формулировки аналогичного утверждения о существовании равновесной ситу- ситуации описывался и способ отыскания точки равновесия. Та же проблема встает перед нами и здесь. Итак, равновесная ситуация существует. Но как ее найти? Если некоторая пара чисел (р*, q*) претендует на то, чтобы определять ситуа- ситуацию равновесия, то для того, чтобы убедиться в обоснованности этих претензий, или, наоборот, доказать их необоснованность, необходимо проверить справедливость не- неравенств (*) для любого р в пределах от 0 до 1 и для любого q в пределах от 0 до 1. В общем случае число таких проверок бесконечно. И, следовательно, действенный способ определения равновесной ситуации нужно искать где-то в ином месте. Для этого мы обопремся на следующий теоретический результат. Теорема 5. Выполнение неравенств НА(р, q*) < HA(p\ q*), Нв{р\ q) < HB(p\ q*) (*) равносильно выполнению неравенств НА@, q*) < НА{р\ q% Нв(р\ 0) < Нв{р\ q*), НАA, q*) < НА{р\ q% Нв(р\ 1) < Нв{р\ q*). {**} Иными словами, для того, чтобы убедиться в обоснованности претензий пары (р*> q*) на то, чтобы определять равновесную ситуацию, достаточно проверить справедливость неравенства НА(р, q*) < HA(p\ q*) только для двух чистых стратегий игрока А(р = 0ир=1)и неравенства Нв(р\ q) < HB{p\ q*) только для двух чистых стратегий игрока В (q = 0 и <7=1). Четыре неравенства (*•) позволяют провести поиск точки равновесия уже вполне конструктивно. Запишем средние выигрыши игроков А и В в более удобной форме. Имеем НА(р, q) = (аи - аи - а>г\ + a22)pq + (ai2 - а22)р + (а2\ - a22)q + a22, НВ(р, q) = (fen - ЬХ2 - Ъ2] + b22)pq + (bi2 - Ь22)р + (Ъ21 - b22)q + Ь22. Обратимся к первой из полученных формул. Полагая в ней сначала р = 1, а потом р = 0, получаем, что HA(l, q) = (аи - а12 - а2\ +a22)q + a\2 + (a2l - a22)q, НА@, q) = (a2i- a22)q + а22. Рассмотрим разности на(р, q) ~ HA(l, q) = (an - а12 - а2Х + a22)pq + (аХ2 - а22)р - - (аи - а12 - a2i + a22)q + а22 - ап, НА(р, q) - НА@, q) = (аи- аХ2 - a2l + a22)pq + (аХ2 - а22)р. Полагая С = а\\ - п\2 - а2] + а22, а = а22- а12,
§3. 2 X 2 бииатричные игры. Ситуация равновесия. получим для них следующие выражения 273 НА(р, q) - НА@, q) = Cpq -ap = p(Cq - a). В случае, если пара (р, q) определяет точку равновесия, эти разности неотрица- неотрицательны НА(р, q) - HA(l, q) > О, НА(р, q) - НА@, q) > 0. Поэтому окончательно получаем (р - \){Cq - а) > 0, p(Cq - а) > 0. Из формул для функции Нв(р, q) при q = 1 и q = 0 соответственно имеем Нв(Р, 1) = (&II " &12 " &2I + Ь22)р+ (&I2 " Ь22)р + &2I, НВ(р, 0) = (&I2 - Ь22)р + &22- Разности Нв(р, q) - Нв(р, 1) и HB(p,q)-HB(p,0) с учетом обозначений D = &ц - Ь12 - Ь2[ + Ь22, ft = &22 - &21 приводятся к виду Яв(р, q) = HB{p, l) = (q- \){Dp - /5), Нв(р, q) = HB(p, 0) = q(Dq - /3) совершенно так же, как соответствующие разности для функции НА. Если пара (р, q) определяет точку равновесия, то эти разности неотрицательны Нв(р, q) - Нв(р, 1) ^ 0, Нв(р, q) - Нв{р, 0) ^ 0. Поэтому (q - \){Dp -/3)^0, q(Dp - Р) > 0. Прежде чем приступать к последующим шагам, подведем некоторые итоги. Для того, чтобы в биматричной игре _ ( Q>\\ Q>\2\ q _ ( Ь\\ Ь\2 \ \ «21 «22 /' \ &21 &22 / ' А=( "" «21 «22 пара (р, q) определяла равновесную ситуацию, необходимо и достаточно одновремен- одновременное выполнение следующих неравенств (¦) (р - l)(Cq - а) ; p(Cq - а) ; (q - \){Dp - C) ^ q(Dp - Р) ^ 5 0, где С — a\\ - a\2 - a2\ + a22, D = &П - Ь12 -&2I +&22, = a22- aI2, (**)
274 Глава XLVIII. Биматричные игры § 4. Поиск равновесных ситуаций Геометрический смысл условий (*) рассмотрим на примерах описанных выше бима- тричных игр. Пример 20. «Борьба за рынки» (продолжение). Напомним, что ситуация, сложившаяся в этой задаче, задается платежными матрицами следующего вида -10 2 А - , , j )• -(-? I)- Заменяя в неравенстве (*) величины С, a, D и /3 их конкретными значениями С- -10-2-1 -1 = -14, а = -1-2 = -3, D= 5 + 2 + 1 + 1= 9, /J = 1 + 1= 2, получаем (l) р(-14д-(-3))^0, [Г) q(9p-2)>0. Рассмотрим сначала левую пару неравенств (I) (р-1)(-14$ + 3)?0, р(-14? + 3) ^ 0. Возможны следующие три случая 1)р = 1, 2)р = 0, 3H<р<1. Разберем каждый из этих случаев подробно. 1. Полагая р = 1, получаем 0^0, -\4q + 3^0. Откуда 14д - 3 ^ 0 и, значит, 2. Полагая р = 0, получаем 0^0, -(-14? + 3)^0, 0^0. Откуда 14$-3^0 и, значит, 3. Наконец, положив 0 < р < 1, получим -14? + 3^0, -149 + 3^0, что возможно лишь в случае, если -14^ + 3 = 0, Т>е" ?= м- Сформулируем результат наших рассмотрений: 1°. p = i, g^^, 2°. Р = 0, O-J, 3°. 0<р<1, д=1. Перенесем теперь полученные сведения на чертеж. Введем на плоскости прямоугольную систему координат (р, д) и выделим на ней единичный ква- квадрат, соответствующий неравенствам 00^1, O^g^l (рис.1).
§ 4. Поиск равновесных ситуаций 275 q' l 0 к * >» s '.'- ". ' •' MS i Рис. 1 Рис.2 Рис.3 Нанесем на этот чертеж то множество точек, которое описывается условиями 1°, 2° и 3°. Это множество (на рис. 2 его точки выделены жирной линией) состоит из трех прямолинейных участков — двух вертикальных лучей и одного горизонтального отрезка — и представляет собой «зигзаг». Нас будет интересовать только та его часть, которая попала в заштрихованный на рис. 2 единичный квадрат. Оставив на время полученные результаты в покое, обратимся к правой части неравенств (г): q(9p-2)>0. Три интересных для нас случая 1)?=1, 2) д = 0, 3H<д<1, приводят нас к следующему результату 2° a — 0 n < 3°. 0<g< 1, p= |. Перенося его на чертеж, получим второй «зигзаг», но уже горизонтальный Теперь остается только объединить полученное на рис. 4. Общая точка построенных зигзагов — точка равновесия — имеет координаты A 1) V9' U) • Соответствующие смешанные стратегии игроков имеют следующий вид а средние выигрыши игроков таковы „ /2 3\_ 4 „ B 3\ _ \ пА ^5> 74У ~ ~7' в \9' Та) ~~ 3" Замечание. Попробуем разбить рассмотренную биматричную игру на две матричные игры с нулевой суммой. 1. Игра с матрицей А. (рис.3). q' 1 3/ /14 0 к S *' '?¦; it**J "*V*4/" * v" 1 p Рис 4 Решая эту игру графическим методом, найдем оптимальную смешанную стратегию для игрока А п i\ 17' 7/ ' цену этой игры . .0 _ 4 а затем и оптимальную смешанную стратегию для игрока В A ill \ 14' I4J " 2. Игра с матрицей В °=Ы I)- Решая эту игру графическим методом, найдем оптимальную смешанную стратегию для игрока В 13' 3/ '
276 Глава XLVIII. Биматричные игры цену этой игры а затем и оптимальную смешанную стратегию для игрока А 19'9/* Сравнивая полученные результаты с решением биматричной игры, можно заметить следующее: если каждый игрок будет применять свои стратегии в этой игре, исходя только из матрицы своих вы- выигрышей, то его оптимальный средний выигрыш совпадет с его выигрышем при равновесной ситуации; кстати, по своей матрице игрок может найти и оптимальную смешанную стратегию другого игрока (но не свою!). Пример 21. «Дилемма узников» (продолжение). Выигрыши игроков А и В описываются соответствующи- соответствующими матрицами выплат: Проведем необходимые вычисления. Имеем Z> = -1 - 0 - (-9) + (-6) = 2, р = -6 - (-9) = 3. Отсюда получаем, что (О 1°. р=1, 1°. ? = 1, (г) = 0, g §, 3°. 0<р<1, q = \. 3°. О < g р=\. Полученные зигзаги изображены на рис. 5. Единственная равновесная ситуация — @, 0). Это ситуация, в ко- которой каждый из игроков выбирает вторую чистую стратегию — со- сознаться — и теряет 6. Как мы уже отмечали ранее, отклонение от ситуации равновесия одного из игроков не дает ему никаких преимуществ. Однако при од- одновременном отклонении обоих каждый из них может получить боль- больший выигрыш, нежели в равновесной ситуации. Например, в ситуа- ситуации A, 1), когда оба игрока выбирают первую чистую стратегию — молчать, — каждый из них теряет лишь 1. Напомним, что по условию задачи сговор (создание коалиции) между игроками недопустим. Совершенно ясно однако, что в рассматриваемых обстоятельствах ситуация @, 0) неустойчива — любой из узников, изменяя свою стра- стратегию, увеличивает свой выигрыш (избегает наказания). Рис.5 Пример 22. «Семейный спор» (продолжение). Выигрыши игроков А и В в этой биматричной игре зада- задаются так: Проводя необходимые вычисления С = 2-0-0+1 = 3, а = !)• и рассуждения получаем, что 1°. р=1, u pCg -1) ^ о, 2е. р = 0, Геометрически полученный результат выглядит так (рис. 6). 3°. 3°. 1, q=\. 1, р=\.
§4. Поиск равновесных ситуаций 277 Данная игра имеет три точки равновесия. Две из них отвечают чистым стратегиям игроков, р = 1, 9 = 1: ЯА A,1) = 2, Нв A, 1) = 1, р = 0, 9 = 0 : НА @, 0) = 1, Нв @, 0) = 2, одна — смешанная, Рис.6 р=\, q=-3: НА{\,\) = \, Нв{-3,-3) = -у Признаться, полученные результаты ставят больше вопросов, чем дают ответов. Ситуации A,1) и @, 0) соответствуют одновременному выбору игроками своих первых или, соответственно, вторых стратегий, то есть определенной договоренности о совместных действиях. Однако в данном случае есть еще одна ситуация равновесия, со- состоящая в выборе игроками вполне определенных смешанных страте- стратегий. В ней оба игрока получают одинаковые выигрыши, правда, меньшие тех, которые дааали две другие равновесные ситуации. Какой же из этих трех ситуаций равновесия следует отдать предпочтение? Какую выбрать игрокам? Если бы игроки договорились играть оба, скажем, первую чистую стратегию, причем игрок Л за по- получение большего выигрыша, чем игрок В, заплатил бы ему 1/2, то выигрыш каждым полутора единиц можно было бы считать и выгодным и справедливым. Однако в рамках теории бескоалиционных игр такого рода дележи не рассматриваются. Вполне ясно, что для выбора каждым из игроков своей линии поведения (напомним, что подобная ситуация может повторяться, и повторяется, многофатно) необходимы либо расширение возможностей, имеющихся у игроков, либо иные, измененные критерии. Наконец, обратимся к последнему из приведенных выше примеров биматричных игр — «Студент — Преподаватель». Пример 23. «Студент — Преподаватель» (продолжение). Впечатления у каждого из них относительно ре- результатов общения в матричном виде выглядят следующим образом *-(? "!)• *=U :!)• Проводя необходимые вычисления С = 2+1-1+0 = 2, а= 0 + 1 = 1, и рассуждения получаем, что @ р=1, (г) 2".р = 2е. e = i 3°. 3е. (рис.7). Число точек пересечения у зигзагов (равновесных ситуаций) рав- равно трем. Две из них отвечают чистым стратегиям игроков, р=1, 9 = 1: НАA, 1) = 2, р = 0, 9 = 0: Ял@,0) = 0, одна — смешанная, Яв@,0) = -1, Р В данной задаче, а отличие от предыдущей, все довольно ясно: наилучшим является выбор каждым из игроков первой чистой страте- стратегии — хорошо подготовиться к зачету и поставить зачет. Как нетрудно заметить, тем самым в этой задаче реализуется весьма редкая возможность, когда функции выигрыша каждого из игро- игроков достигают своих максимумов одновременно. Выгодность такой си- ситуации совершенно ясна. Ее устойчивость также вполне очевидна: любое отклонение от ситуации A,1) одним из игроков или обоими игроками может привести разве что к уменьшению их выигрышей. Рис.7
278 Глава XLVIII. Биматричные игры § 5. Оптимальность по Парето Содержательные представления об устойчивости, выгодности и справедливости мно- многообразны. Выше мы рассматривали проявление устойчивости через равновесие. Су- Существует и иной вариант устойчивости ситуации, в большей степени, чем равновес- равновесность, отражающий черты ее выгодности. Это оптимальность по Парето. 5.1. Множество Парето Рассмотрим на плоскости (U, V) множество п (рис.8). Каждая его точка облада- обладает одним из следующих свойств: либо все точки, ближайшие к ней, принадлежат множеству п (такая точка называется внутренней точкой множества п), либо сколь угодно близко от нее расположены как точки множества ?1, так и точки, множеству ?1 не принадлежащие (такие точки называются граничными точками множества п). Гра- Граничная точка может как принадлежать множеству п, так и не принадлежать. Здесь мы будем рассматривать только такие множества, которым принадлежат все точки границы. Множество всех граничных точек множества называется его границей. Обо- Обозначение: V О V и о Рис.8 Рис.9 Пусть М — произвольная точка множества п, внутренняя или граничная, и (U, V) — ее координаты. Поставим следующий вопрос: можно ли, оставаясь во мно- множестве ?1, переместиться из точки М в близкую точку так, чтобы при этом увеличились обе ее координаты. Если М — внутренняя точка, то это бесспорно возможно. Если же М — граничная точка, то такое возможно не всегда (рис. 9). Из точек М\, Мг, Мз это сделать можно, но уже из точек вертикального отрезка АВ можно переместиться, увеличивая лишь координату V (координата U при этом остается неизменной). Пе- Перемещая точку горизонтального отрезка PQ вправо, мы увеличиваем координату U (при этом координата V сохраняет свое значение). Что же касается дуги BQ, то пере- перемещение вдоль нее способно увеличить лишь одну из координат при одновременном уменьшении другой. Тем самым, точки множества п можно разбить на три класса: • в первый класс относятся точки, которые, оставаясь во множестве ?1, можно сдвинуть так, чтобы одновременно увеличились обе координаты (в этот класс попадают все внутренние точки множества п и часть его граничных точек), • второй класс образуют точки, перемещением которых по множеству ?1 можно увеличить только одну из координат при сохранении значения второй (верти- (вертикальный отрезок АВ и горизонтальный отрезок PQ на границе множества ?1),
§ 5. Оптимальность по Парето. 279 • в третий класс попадут точки, перемещение ко- которых по множеству ft способно лишь уменьшить либо одну из координат, либо обе (дуга BQ грани- границы дп) (рис. 10). Множество точек третьего класса называется мно- множеством Парето, или границей Парето данного множе- множества п (выделено на рис. 10). 5.2. Метод идеальной точки Пусть на плоскости (ж, у) задано множество а> (рис. 11) и в каждой точке этого множества определены две не- непрерывные функции U = Ф(ж, у) и V = Ф(ж, у). Рассмотрим следующую задачу. Во множестве w найти точку (xt, j/#), в которой Ф(ж*> У*) — тах Ф(ж> У) и (х, у)бш Обычно это записывается так Ф(х, у) У у*) = max (х, у)вш у). max и у) max (ж, у) е ш. V о р С '¦¦¦' О '•••^ "Й В и Рис. 10 Рис.11 — X Сразу же отметим, что в общем случае поставленная задача решения не имеет. В самом деле, нарисуем на плоскости {U, V) все точки, координаты которых вы- вычисляются по формулам U = Ф(х, у), V = Ф(я, у), (х, у) е w. Из рис. 12 видно, что наибольшее значение U — Umax — и наиболыпе значение У — Утах — достигаются в разных точках, а точка с координатами V^max) 'max/ лежит вне множества п. Тем самым, в исходной постановке задача, вообще говоря, неразрешима — удовле- удовлетворить обоим требованиями одновременно невозможно. И, следовательно, нужно искать какое-то компромиссное решение. Опишем один из путей, использующий множество Парето. точка утопии V идеальная точка Рис 12 Рис. 13
280 Глава XLVIII. Биматричные игры Сначала на плоскости (U, V) задается целевая точка, в качеств координат которой часто выбирается сочетание наилучших значений обоих критериев U и V. В данном случае это точка (UmaK, Vmax). Вследствие того, что обычно такая точка при заданных ограничениях не реализу- реализуется, ее называют точкой утопии. Затем строится множество Парето и на нем ищется точка, ближайшая к точке утопии — идеальная точка (рис. 13). 5.3. Оптимальность по Парето в биматричной игре Рассмотрим биматричную игру с 2 х 2-матрицами «22 &21 &22 =Г?» |_ &21 Пусть НА(р, q) и Нв(р, q) — средние выигрыши игроков А и В. Ситуация (pt, qt) в биматричной игре А и В наказывается оптимальной по Парето, если из того, что НА(Р*, Я*) < НА(р, q) и HB(p*,q*)^HB(p,q), вытекают равенства Р = Р*, Я = Я*- Иными словами, в оптимальной по Парето ситуации игроки не могут совместными усилиями увеличить выигрыш одного из игроков, не уменьшив при этом выигрыш другого. Различие ситуации равновесия от ситуации, оптимальной по Парето, состоит в сле- следующем: • в ситуации равновесия ни один из игроков, действуя в одиночку, не может уве- увеличить своего собственного выигрыша; • в ситуации, оптимальной по Парето, игроки, действуя совместно, не могут (даже нестрого) увеличить выигрыш каждого. Обратившись к игре «Дилемма узников», покажем, как практически отыскиваются оптимальные по Парето ситуации. Напомним, что соответствующие платежные матрицы q в этой игре имели следующий вид _Г-1 0] ~ [-9 -6J * [ 0 -6J ' Тем самым, на единичном квадрате (рис. 14) возможных значений вероятностей р и q заданы две функции Рис-14 U = НА(р, q) = -pq - 9p(l - q) - 6A - p)(l - q), V = HB(p, q) = -pq - 9A - p)q - 6A - p){\ - q). Точки с координатами (U, V), вычисленными по приведенным формулам, на плоскости (U, V) заполняют четырехугольник с вершинами К(—1, -1), L(—9, 0), М(-6, -6) и N@, —9) (рис. 15). Граница Парето этого множества — ломаная NKL.
§6. Несколько слов в заключение. .281 О N Рис.15 Рис.16 Каждый из игроков заинтересован в наибольшем значении своего среднего вы- выигрыша U = На(р, q) -* max и V = На(р, q) -*¦ max. Нетрудно заметить, что в данном случае = 0 и Тем самым, точкой утопии в этой задаче является начальная точка О@, 0). Ближайшая к ней точка множества Парето — К(-1, -1) (рис. 16). Идеальная точка К(-1, -1) — точка с наибольшими выигрышами для каждого из игроков — оказывается лучше, чем равновесная точка М(-6, -6), и ей соответ- соответствуют чистые стратегии обоих игроков § 6. Несколько слов в заключение На анализе полученных результатов стоит остановиться чуть подробнее. Из приведенных примеров видно, что числа С и D из соотношений (**) на с. 273 могут быть как положительными, так и отрицательными. Они могут, в частности, даже обращаться в нуль. Рассмотрим однако наиболее интересный в приложениях случай, когда ни С ни D нулю не равны, т. е. Тогда, как нетрудно видеть, точка равновесия определяется парой Р а Эти формулы являются весьма примечательными: в равновесной ситуации выбор игрока А полностью определяется элементами платежной матрицы игрока В, Ь22 ~ Ь2\ р = Ь\\ - Ь\2 - Ь2\ +Ь22 (и не зависит от элементов его собственной платежной матрицы), а выбор игрока В в равновесной ситуации полностью определяется элементами платежной матрицы
282 Глава XLVIII. Биматричные игры игрока А, «22 - «12 q— «II - «12 - «21 +«22 (и не зависит от элементов его собственной платежной матрицы). Иными словами, равновесная ситуация обоих игроков определяется не столько стремлением увеличить собственный выигрыш, сколько желанием держать под кон- контролем выигрыш другого игрока (минимизировать этот выигрыш). И если, например, заменить в биматричной игре матрицу выплат игроку А, а матрицу выплат игроку В оставить прежней, то игрок А никак не изменит своего «равновесного» поведения (просто не обратит внимания на эту замену), в то время как игрок В изменит свою стратегию на новую, равновесную. Таким образом, в биматричной (неантагонистической) игре мы вновь встречаем- встречаемся с антагонизмом. Правда, теперь это уже не антагонизм интересов (как это было в антагонистической, матричной игре), а антагонизм поведения. Отметим, что в биматричными играх (в отличие от матричных) при наличии не- нескольких ситуаций равновесия средний выигрыш игрока в разных равновесных ситу- ситуациях различен (напомним, что в матричной игре выигрыш игрока один и тот же вне зависимости от количества точек равновесия). Но если средние выигрыши разнятся, то какую равновесную ситуацию следует считать оптимальной? Наконец, еще одно, не менее интересное. Вспомним, с какими трудностями мы столкнулись, пытаясь перевести эмоциональные оценки результатов общения сту- студент-преподаватель в количественные показатели. В целом сохраняя основные со- соотношения, эти количественные оценки могут, конечно, изменяться как от студента к студент^', так и от преподавателя к преподавателю. Однако, если эти изменения будут не слишком значительными — элементы платежной матрицы пошевельнутся «слегка» — то слегка пошевелятся и зигзаги, не изменяя ни своей общей формы, ни взаимного расположения, а, значит, число равновесных ситуаций не изменится. Впрочем, сказанное относится лишь к случае, когда множество ситуаций равновесия конечно и состоит из нечетного числа точек (одной или трех). Как принято говорить в подобных случаях, это число устойчиво относительно малых шевелений. Конечно, в некоторых биматричных играх равновесные ситуации случаются и вчи- стых стратегиях (в последнем из разобранных примеров таких ситуаций даже две). И (в принципе это совсем нетрудно) можно дать определение ситуации равновесия в чистых стратегиях. Найти ее (если она, конечно, существует) — дело довольно простое. Но, как показывают приведенные примеры, во-первых, чистой ситуации равновесия может вовсе не быть, а, во-вторых, даже при ее наличии не исключено существование равновесных ситуаций в смешанных стратегиях. И желая найти их все, неизбежно приходится обращаться к описанному выше подходу.
Заключение Реальные конфликтные ситуации приводят к разным видам игр. Различны и способы их анализа и разрешения. Мы остановились лишь на трех видах игр — матричных, позиционных и бима- тричных. Сделанный выбор обусловлен тем, что уже здесь можно наглядно показать, какой смысл вкладывается в термин игра и чем именно занимается теория игр, а также познакомить с относительно несложным математическим инструментарием, опира- опирающимся на ключевые понятия вероятности, матрицы и координаты и позволяющим разрешать простейшие из этих видов игр. Вместе с тем, нам не хотелось бы, чтобы у читателя сложилось впечатление, что до- доступными анализу могут быть только игры, описанные выше. Существует обширный, содержательный и интересный, привлекающий неослабевающее внимание исследо- исследователей класс игр, в которых хотя бы один из игроков имеет бесконечное множество возможных стратегий — бесконечные игры. В этом — заключительном — разделе мы приведем три примера бесконечных игр: непрерывной игры на единичном квадрате {непрерывными называются бесконечные игры, в которых функции выигрышей непрерывно зависят от стратегий, выбираемых игроками), дуэли (играми с выбором момента времени, или играми типа дуэли, назы- называются игры, характеризующиеся моментом выбора хода и вероятностями получения выигрыша в зависимости от времени, прошедшего от начала игры до момента выбо- выбора) и дифференциальной игры поиска (в дифференциальных играх допускается делать ходы непрерывно и связывать поведение игроков условиями, описываемыми диффе- дифференциальными уравнениями). При этом мы ограничимся, как и ранее, играми двух лиц и проведем лишь постановку задач (описание возможностей в поведении игроков и построение функций выигрышей), хотя для каждой из приводимых игр разработаны достаточно эффективные подходы к построению их решения. Борьба за рынки (игра на единичном квадрате) Одна из конкурирующих фирм (игрок А) пытается вытеснить другую фирму (игрока В) с одного из двух рынков сбыта. Предположим, что общая сумма средств, выделенная на это игроком А, равна 1. Типичной стратегией игрока А является разделение выделенной суммы на две части: х (О ^ х ^ 1) для первого рынка и 1 - х для второго. Подобным образом выглядят и стратегии игрока В: выделение им части у (О ^ у ^ 1) своей суммы на первый рынок и 1 - у на второй. Будем считать, что если игрок А добился превосходства на одном из рынков (на другом превосходства автоматически добивается игрок В), то он вытесняет про- противника с этого рынка и получает выигрыш, пропорциональный избытку вложенных средств с коэффициентом, характеризующим важность рынка (этот коэффициент ра- равен &i для первого рынка и kj Для второго). Тогда функция выигрыша Н(х, у) игрока А определяется формулой ( ki(x-y), если О^з/<а?^1, Щх, у)= < 0, если х = у, [ к2(у - х), если 0 < х < у < 1. Ясно, что функция выигрыша игрока В равна —Н(х, у).
284 _ Заключение Дуэль Два дуэлянта (игроки А и В) начинают сходиться в момент времени t = 0. У каждого пистолет заряжен одной пулей. Они встретятся в момент времени t = 1 (если только ни один из них не застрелит другого раньше). Каждый из дуэлянтов может выстрелить, когда пожелает. Если при этом одному из них удастся поразить противника, а самому остаться невредимым, то он становится победителем (его выигрыш равен 1) и дуэль тут же прекращается. Если оба промахнутся, дуэль закончится вничью (выигрыш каждого из игроков равен 0). Если оба выстрелят одновременно и каждый поразит противника, то дуэль также считается окончившейся вничью. Если игрок А произведет выстрел в момент времени х @ ^ х ^ 1), то его выстрел будет успешным с вероятностью р(х). Подобным же образом, выстрел игрока В в момент времени у @ < у < 1) будет успешным с вероятностью q(y). При условии х < у игрок А выиграет с вероятностью р(х), а проиграет с вероятностью A— p(x))q(y). Тем самым, его средний выигрыш при х < у будет равен Н(х, у) = 1 • р(х) + (-1) • A - p(x))q(y) = р(х) - q(y) +p(x)q(y). С другой стороны, если х > у, его средний выигрыш будет равен Н{х, у) = 1 • A - p(x))q(y) + (-1) • р(х) = р(х) - q(y) - p(x)q(y). При х = у средний выигрыш Н(х, х) = 1 • р(х) + (-1) • q(y) = р(х) - q(x). Таким образом, функция выигрыша Н(х, у) игрока А имеет вид {р(х) - q(y) + p(x)q(y), если 0 < х < у < 1, p(x)-q(x), если х = у, Р(х) ~ Я(У) ~ Р(Х)Я(У), если 0 < у < х < 1, и антагонистическая игра задана. В частности, если игроки стреляют без промаха, 1, о, -1, если если если 0 X 0 = У, У * х $ % 1- Дифференциальная игра поиска Ищущий (игрок .4) стремится обнаружить уклоняющегося (игрока В). Оба игрока пе- перемещаются с постоянными скалярными скоростями (аи /3 соответственно) по плос- плоскости внутри некоторой поисковой области п. В любой момент времени каждый из игроков управляет своим перемещением, задавая направление вектора скорости. Пусть (хд, уа) и (хв, Ув) — координаты игроков. Тогда имеем dxA dxB -— = a cos <p, — = /3 cos чр, at at dyA . йУв а . , -— = asm<p, -7Г=Р sin i>- dt dt Игра поиска заканчивается в тот момент, когда игроки сблизятся на расстояние I > 0, иными словами, когда будет выполнено неравенство (хА - хвJ + (уА ~ УвJ <12- В случае успешного обнаружения выигрыш игрока А считается равным 1.
Заключение 285 Построение решения в этой игре существенно зависит от характера и степени информированности игроков. * * * Все, о чем говорилось в этой книге, — примеры бескоалиционных игр, когда любые соглашения, обмен информацией, побочные платежи, совместный выбор стратегий запрещены. Другой важный класс составляют кооперативные игры, в которых разрешены са- самые разнообразные формы сотрудничества. Возможность соглашений между игро- игроками оказывает существенное влияние на исход игры. Если допустить, например, в игре «Дилемма узников» совместный выбор стратегий, то исход игры может оказать- оказаться совсем иным. При наличии побочных платежей по-иному окончится и «Семей- «Семейный спор». Вне поля наших рассмотрений остались игры с одним участником, а также игры с участием трех и более игроков; последние особенно интересны, но они и трудны.
Задачи к разделу 1. Найдите нижнюю цену игры, верхнюю цену игры, определите седловые точки, опти- оптимальные чистые стратегии и цену игры (если они существуют): а) 1 2 7 8 3 3 1 4 -2 4 -5 3 n -1 2 -1 ) , б) 1 3 3 1 2 -5 2 7 1 -1 1 -2 3 6 4 -3 7 -2 2 4 2. Найдите решения следующих матричных игр: . /-5 8\ л. /-1 1-1 2\ . / ¦> ( 4 -7J> бЧ 0 -1 2 -2J> B> ( 4 2 3 -4 0 -2 А) /4 4 4 4 2 0 2 0 3 1 3 4 3 3 1 2 3 -1 -2 0 1 1 2 2 2\ 1 2 2 2 3. Найдите точные и приближенные решения следующих матричных игр: а) б) 4. Дайте графическое представление, приведите к нормальной форме и найдите точное решение позиционной игры со следующей функцией выигрышей W(x, у, z): W(\, W(\, W(l, W(l, 1, 1, 2, 2, 1) = 2) = 0 = 2) = 2, -2, 1, о, WB, WB, WB, WB, 1, 1, 2, 2, 1) = 2) = 1) = 2) = -1, 3. o, -3. а) 1-й ход делает игрок А: он выбирает число х из множества двух чисел {1,2}. 2-й ход делает игрок В: не зная о выборе игрока А на 1-м ходе, он выбирает число у из множества двух чисел {1, 2}. 3-ыход делает игрок А: он выбирает число z из множества двух чисел {1, 2},зная значение у, выбранное игроком В на 2-м ходе, но не помня собственного выбора ж на 1-м ходе. б) 1-й ход делает игрок А: он выбирает число ж из множества двух чисел {1, 2}. 2-йход делает игрок В: зная выбор игрока А на 1-м ходе, он выбирает число у из множества двух чисел {1, 2}. 3-й ход делает игрок А: он выбирает число z из множества двух чисел {1, 2}, не зная значения у, выбранного игроком В на 2-м ходе, но помня собственный выбор ж на 1-м ходе. в) 1-й ход производится случайно: игрок О выбирает число х, равное 1 с вероятностью 0,3 и равное 2 с вероятностью 0,7. 2-й ход делает игрок А: он выбирает число у из множества двух чисел {1,2}, зная результат случайного выбора на 1-м ходе. 3-й ход делает игрок В: он выбирает число z из множества двух чисел {1, 2}, зная выбор у игрока А на 2-м ходе, но не зная случайного выбора а; на 1-м ходе.
Задачи к разделу. 287 5. Найдите решение биматричной игры: а) б) в) A = 6 2 2 4 В = B 6\ U г)' A A = \o 17' 2 6 8 2 1 0 0 4 г) «ястреб—голубь» А = 5 0 10 1 ( a-b a 0 a 2 В = В = /5 10 \ V0 1 )' / a-b 2 0 а а 2 I Найдите ситуации равновесия в каждом из двух случаев: 1) а>Ъ,2) а <Ъ. Ответы 1.а) а = -2, /3 = 2; б) р = 1, {Л„ 53} и {Л3, 53}. 2.а) Р = {Ц, g}, Q = {f, |}f {!> |. О}, g = {}, i}, v = J; Д) P = {0, 0, |, f, o}, g = {O, 0, O, }, I, O}, v = }. З.а) Р « {0,14; 0,86; 0}, Q » {0,43; 0,57; 0}, i/ « 0,46; б) Р и {0,05; 0,62; 0,33}, (? « {0; 0,67; 0,33}' «/ « 1,00. 5.a) j» = f, q = J: ЯА (|, |) = f, HB (|, j) = f; 6) j, = 1, q = 1: ЯАA, 1) = 4, ЯвA, 1) = 1; p = 0, q = 0: ЯЛ@,0) = 1, Я*(О, 0) = 4; j, = J, g = f: ЯЛ (j, f) = f, Я5 (J, f) = -\\ в) P = 0, q = 0: ЯА@,0) = 1, Я*@,0) = 1; г) 1) a > Ь: р = 1, g = 1, 2) a<b:p=l,g = O;p = O,g=l;|>=f,g=f.
Приложение ПОДСЧЕТ ЧИСЛЕННОСТЕЙ ВЫБОРОЧНЫХ СОВОКУПНОСТЕЙ. ПРИНЦИП УМНОЖЕНИЯ. КОМБИНАТОРИКА В теории вероятностей часто возникает задача о подсчете количества некоторых ком- комбинаций. Наиболее естественно к этой задаче приводит случай конечных или счетных пространств элементарных событий. Рассмотрим постановку, которая охватывает наиболее важные с точки зрения приложений случаи. Имеется некоторое конечное множество объектов произвольной природы а\, а2,... , aN. Производится выбор п ^ N объектов по заранее фиксированному правилу. Требу- Требуется определить количество различных способов, которыми этот выбор можно осу- осуществить. Для решения поставленной задачи применим так называемый принцип умножения. Если выбираемая совокупность aivai2,... ,ain A) такова, что символ, стоящий на первом месте, может быть выбран т\ способами, после его выбора символ, стоящий на втором месте — т2 способами и, вообще, а < < a 1?} Рис.1 символ, стоящий на j -м месте может быть выбран т; способами, после выбора пре- предыдущих символов, то общее количество способов, которыми может быть выбрана последовательность A), равно B) к = тп\ Справедливость этого принципа легко усмотреть из рис. 1.
Подсчет числениостей выборочных совокупностей. Принцип умножения. Комбинаторика 289 Задача 1. Перестановки. Пусть элементы а,,, а,2,..., а,в различны. Перестановкой из этих элементов называется их любой упорядоченный набор. Требуется определить количество всех различных переста- перестановок P/v из данных N элементов. Поскольку все элементы в перестановке различны, то первый элемент может быть выбран N разными способами. После этого элемент, стоящий на втором месте, может быть выбран N — 1 различными способами и т. д. Из принципа умножения немедленно следует соотношение PN =N-(N-l)-(N-2)... 2-1= N\ C) Задача 2. Размещения. Размещением длины п из N элементов а} называется упорядоченная совокуп- совокупность п различных элементов а}. Заметим, что два размещения считаются разными, если они отлича- отличаются либо входящими в них элементами, либо порядком элементов, либо их количеством. Требуется определить количество размещений длины п, которые можно образовать из данных N элементов а}. Рассуждаем аналогично решению задачи 1. Первый элемент может быть выбран N различными спосо- способами, второй — (N — 1) способами и т.д. Получаем формулу АЪ = N(N - 1) •... • (N - п + 1). D) Заметим, что формула C) является частным случаем формулы D) при п = N. Задача 3. Сочетания. Сочетанием длины п из N элементов называется неупорядоченная совокупность различных п элементов из данных N. Сочетания одинаковой длины отличаются друг от друга только входящими в них элементами (в то время как размещения отличаются еще и их порядком). Требуется определить количество различных сочетаний Сд- длины п, которые можно образовать из данных N элементов а}. Легко видеть, что каждому сочетанию отвечает п! различных размещений, составленных из те же эле- элементов, но отличающихся друг от друга порядком элементов. Отсюда С" = (N\ = 4* = N(N1)---- -(N-n + l) = N1 N \n) n! n! n!(N-n)\' { ' Замечание. В различных задачах оказываются полезными следующие соотношения для чисел С%: I. Cft = C#-n. 2. ?С& = 2*. 3. ^ Задача 4. Найти количество различных «слов», которые можно образовать из букв п, е, р, е, с, т, а, н, о, в, к, а. «Словом» будем называть последовательность всех перечисленных выше букв, взятую в произвольном порядке. Считая все буквы различными, получим 12! «слов». Однако не все из этих «слов» различны — буквы «е» и «я» повторяются и от их перестановки друг с другом построенное слово не меняется. Букву «е» можно переставить в уже сформированном слове 2! способами, аналогично дело обстоит и с буквой «а» — слова при этом не меняются. Поэтому количество различных «слов» К дается соотношением К ~ 2!2Г Задача 5. Выбор без возвращения. В урне содержится (ш + п) шаров: m — красных и п — черных. Случайным образом выбирают к шаров. Сколькими различными способами можно осуществить этот выбор? Сколько различных наборов содержит ровно г ^. к красных шаров? (г ^ гп, порядок шаров в наборе несуществен). Для первой части задачи цвет шаров безразличен: у нас есть m + n шаров и требуется определить, сколькими способами из них можно выбрать к шаров. Используя результат задачи 3, получаем, что нужное число способов равно С^+п ¦ Для того, чтобы получить совокупность шаров, содержащую г красных шаров, поступим следую- следующим образом: выберем произвольным образом г шаров из данных m красных — этот выбор можно осуществить С„ способами, аналогично к - г черных шаров из п черных можно выбрать С*~г спосо- способами. Поскольку любой набор из г красных шаров можно объединить с любым набором к - г черных шаров, то из принципа умножения следует, что количество различных наборов к шаров, содержащих ровно г фасных дается формулой С?, • С*~г.
290 Приложение Задача 6. Выбор с возвращением. В урне содержится т + п шаров: m — красных ип — черных. Про- Производится следующий выбор к шаров: случайным образом вынимают шар, отмечают его цвет и воз- возвращают в урну. Сколько различных fc-наборов можно получить таким образом? Сколько fc-наборов содержат ровно г ^. к красных шаров? (Порядок шаров существен.) Заметим, что извлекаемый шар может оказаться любым из т + п шаров, содержащихся в урне. По- Поэтому, в соответствии с принципом умножения, искомое количество fc-наборов дается соотношени- соотношением (т+п)к. Далее, рассуждая аналогично задаче 5, получаем, что г красных шаров можно выбрать тг различными способами, А; — г черных — пк~Т способами. Теперь, так как здесь учитывается порядок шаров, надо ттпк~т умножить на число выборов г мест в fc-элементном множестве, т. е. на С?. В итоге получим Clmrnk~T. Замечание. Следует обратить внимание на различные вероятностные ситуации, описываемые выбором с возвращением и выбором без возвращения. В случае выбора с возвращением, вероятность извлечения шара остается неизменной в течение всего эксперимента, в то время как при выборе без возвращения эта вероятность изменяется с каждым извлеченным шаром. Задача 7. В ящике находится 2п шаров, помеченных номерами от 1 до п так, что один и тот же номер имеют два шара. Из ящика извлекают случайным образом г шаров, г ^ п. Найти количество различных наборов из г шаров с разными номерами. Осуществляется выбор г элементов из данных 2п. Заметим, что если выбран шар с номером j, то прочие шары в наборе уже не могут иметь этого номера и потому выбор последующих шаров должен осуществляться из набора 2п—2 шаров. Таким образом, первый шар может быть выбран 2п способами, второй — Bп — 2) способами, третий — Bп — 4) способами и, вообще, fc-й шар может быть выбран 2п - 2(к - 1) способами. Всего упорядоченных наборов из г шаров будет S = 2nBn-2)-... -Bn-2(r-l)). Но с точки зрения условия задачи не все эти наборы различны, так как они отличаются не только входя- входящими в них элементами (т.е. номерами шаров), но и порядком, в котором элементы стоят в выбранной совокупности. Поскольку порядок шаров нам безразличен, то число S следует уменьшить в г! раз — ровно столько различающихся порядком наборов можно образовать из г шаров с фиксированными номерами. В результате получим 2пBп-2)-... -Bп-2(г-1)) _ 2гп! ?. ~ rl(n - г)! различных наборов. Задача 8. В условиях предыдущей задачи случайным образом извлекают 2г < 2п шаров. Найти коли- количество различных наборов, содержащих ровно m < г парных шаров Bг < m + п). Очевидно, что набор из 2г шаров, содержащий ровно m пар шаров, содержит еще 2г — 2тп различных шаров (т. е. непарных) из оставшихся 2п — 2т шаров. Заметим, что всего существует С" различных m пар шаров из данных п пар. Оставшиеся 2г — 2т шаров можно выбрать (см. задачу 7) Bп - 2т) • Bп - 2т - 2) •... • Bп + 2т - 4г + 2) _ 22гт(п - т)! Bг - 2т)! Bг - 2т)!(т + п - 2г)! способами. Следовательно, искомое количество способов дается формулой S = Br-2m)!(m + n-2r)!"
Предметный указатель а -алгебра 38 — борелевская 39 альтернатива 254 аналог эмпирический (выборочный) 160 антагонизм интересов 282 — поведения 282 асимметрия распределения 123 аффинное правило 244 Бейеса формула 17,48, 86 Бюффона задача 43 В вероятность апостериорная 17, 48 — априорная 17 — исхода 4 — события 6, 7, 10, 32 — условная 13, 44 выборка 158, 162 выигрыш игрока в данной ситуации 226 средний 235 гамма-распределение 97 гамма-функция Эйлера 97 Гаусса—Маркова теорема 213 геометрические вероятности 9,41 гипотеза 182 главный эллипсоид рассеивания 217 Гливенко—Кантелли теорема 159 граница множества 278 дельта-функция 78 дерево игры 254 диаграммы Эйлера—Венна 24 дискретный эксперимент 34 дисперсия 113 доверительный интервал 170 доминирование одной стратегии другой страте- стратегией 243 задача Бюффона 43 закон больших чисел в форме Бернулли 125 в форме Чебышёва 124 — распределения 58,60, 75 условный 83 запас исходов 13 И игра 226, 283 — m х п 228 игра п игроков 253 игра антагонистическая 253 — бескоалиционная 253, 285 — бесконечная 253,283 — биматричная 227, 253, 268 — выпуклая 253 — двух игроков 253 — дифференциальная 253, 283 — коалиционная 253 — конечная 253 — кооперативная 253, 285 — матричная 227, 228, 253 с седловой точкой 233 — многошаговая 253 — непрерывная 253, 283 — одного игрока 253 — одношаговая 253 — позиционная 227, 253, 254 антагонистическая 255 с неполной информацией 255 с полной информацией 255, 263 со случайным разыгрыванием права пер- первого хода 261 со случайным ходом 260 — с ненулевой суммой 253 — с неполной информацией 253 — с нулевой суммой 253 — с полной информацией 253 —, смешанное расширение 227 — стохастическая 253 — типа дуэли 253, 283 игроки 226 индикатор события 70 канторово множество 22 классическое определение вероятности 35
292 . Предметный указатель класс параметрический функций 210 ковариация 118 Колмогорова теорема 195 конфликт 226 корреляционное отношение 122 коэффициент вариации 116 — корреляции 118 множественный 207 критерий проверки гипотезы 183 наиболее мощный 184 равномерно 184 Л Лапласа функция 68 Лебега теорема 73 линия регрессии 122 Ляпунова теорема 133 м максимина принцип 231 математическое ожидание 108 условное 121 матрица игры 228 — платежная 228,267 медиана случайной величины 112 метод решения матричной игры сведением к за- задаче линейного программирования 247-2S0 матричных игр графический 238-242 итерационный 245-247 минимакса принцип 232 множества борелевские 39 множество информационное 2SS — канторово 22 — Парето 279 — цилиндрическое 56 мода случайной величины 112 момент начальный 123 — центральный 123 — эмпирический (выборочный) 161 Муавра—Лапласа интегральная теорема 130 — локальная предельная теорема 129 н Неймана—Пирсона теорема 186 неравенство Рао—Крамера 178 — Чебышёва 1 IS нормализация позиционной игры 2S6 Нэша теорема 271 п партия 255 перестановка 289 Пирсона теорема 196 платежная матрица 228 плотность распределения 40,66,76 обобщенная 73,79 условная 85 позиция 254 полная группа несовместных событий 16,46 порядковые статистики 102 правила игры 226 правило аффинное 244 — доминирования 243-244 — сложения вероятностей 10 — умножения вероятностей 13 принцип дополнительности 7,10 — максимина 231 — минимакса 232 — отношения правдоподобия 186 природа игры 254 равновесие 227 равновозможность исходов 9 радиус эллипсоида 217 размещение 289 Рао—Крамера неравенство 178 распределение х2 ЮЗ — абсолютно непрерывное 40,68 — антимодальное 112 — Бернулли 70 — биномиальное 71 — дискретное 41 — Коши 64 — нормальное 68 — невырожденное 106 — полимодальное 112 — полиномиальное 79 — пуассоново71 — равномерное 40,63 в круге 79 — Стьюдента 103 — унимодальное 112 — условное 83 — Фишера 104 — экспоненциальное 65 расширение игры смешанное 227 регрессионная зависимость 199 решение матричной игры 23S с седловой точкой 233 ряд распределения 70,77 огибающая семейства прямых верхняя 242 нижняя 239 остаточная ошибка 215 отношение правдоподобия 186 оценка 164 — несмещенная 164 — состоятельная 164 свертка 94 свойства оптимальных смешанных стратегий основные 237 связь корреляционная 200 система нормальных уравнений 212 ситуация 226 —, оптимальная по Парето 280
Предметный указатель. 293 — в смешанных стратегиях 235 — в чистых стратегиях 235 случайная величина 58 бернуллиева 70 биномиальная 71 дискретная 70 непрерывная 68 нормальная (гауссова) 67 пуассонова 71 равномерно распределенная 63 распределенная по Коши 64 Фишера-Снедекора 104 экспоненциальная 65 случайные величины независимые 81,93 случайный вектор 74 дискретный 78 смешанное расширение игры 227 событие 5,10, 20 — достоверное 6, 20, 32 — невозможное 6, 20, 32 — противоположное 5,28 — случайное 18,38 события, их подчиненность 25 —, — произведение 5 —, — разность 30 —, — совмещение 24 —, — сумма 5, 26 — независимые 49 в совокупности 50 — несовместные 5, 24 — элементарные 19 совмещение экспериментов 51, 52 сочетание 289 срединное отклонение 116 среднее квадратическое отклонение 114 стратегия игрока 226 максиминная 231 минимаксная 232 оптимальная 233 смешанная 235 смешанная 227, 234 чистая 227,256 сужение эксперимента П 45 схема случаев 4 — теории матричных игр основная 237 — фон Неймана 237 теория игр 226, 283 с выигрышами 226 с предпочтениями 226 точка идеальная 280 — внутренняя 278 — граничная 278 — матрицы седловая 233 — равновесия 233 — утопии 280 уровень доверия (доверительная вероятность) 170 Ф фон Неймана теорема 237 формула Бейеса 17,48, 86 — полной вероятности 16, 85 функция вероятностная 59, 74 — Лапласа 68 — правдоподобия 167 — распределения 60,62, 75 , основные свойства 60-61,76 условная 83 эмпирическая (выборочная) 159 характеристики положения 108 — рассеяния 108,113 — связи 108, 117 — эмпирические (выборочные) 161 ход случайный 254 цена игры 233,235 верхняя 232 нижняя 231 теорема Iaycca—Маркова 213 — Гливенко—Кантелли 159 — Колмогорова 195 — Лебега 73 — Ляпунова 133 — Муавра—Лапласа интегральная 130 локальная предельная 129 — Неймана—Пирсона 186 — Нэша 271 — об оценивании а2 214 — Пирсона 196 Чебышёва неравенство 115 Эйлера—Венна диаграммы 24 эксперимент 19 — Бернулли 53 — биномиальный 53 — полиномиальный 54 эксцесс распределения 123
Оглавление Глава XXXVII. Элементарные соображения 4 Глава XXXVIII. Случайные события. Вероятность 19 Глава XXXIX. Случайные величины и законы распределения 58 Глава XL. Функции случайных величин 88 Глава XLI. Числовые характеристики случайных величин 108 Глава XLII. Законы больших чисел и предельные теоремы 124 ГлаваХЫП. Оценки 158 Глава XLIV. Статистическая проверка гипотез 181 Глава XLV. Статистическое исследование зависимостей 199 Глава XLVI. Матричные игры 228 Глава XLVII. Позиционные игры 254 Глава XLVIII. Биматричные игры 267 Приложение. Подсчет численностей выборочных совокупностей. Принцип умножения. Комбинаторика ... 288 Предметный указатель 291