Текст
                    \\. E. Гмурман
Теория
вероятностей
и
математическая
статистика
Издание четвертое,
дополненное
Допущено
Министерством высшего
и среднего специального
образования СССР
в качестве учебного пособия
для инженерно-экономических
институтов и факультетов
Издательство «Высшая школа»
Москва — 1972


Г|17.8 I 11 УДК 519@.75) Гмурман В. Е. II Теория вероятностей г математическая статисти- статистики. Изд. 1-е, доп. Учеб. пособие для вузов. М., «Высш. школл», 1972. 308 с. с нлл. Книга содержит весь материал новой программы по теории вероятностей и математической статистике. До6;Н1.1еми главы: показательное распределение, про- nc-рка статистических гипотез, одпофактормий диспер- дисперсионный анализ. Большое внимание уделено статисти- статистическим методам обработки экспериментальных дан- данных; приведены удобные расчетные таблицы. В конце каждой главы помещены задачи с ответами. Книга предназначается для студентов инженерно- экономических институтов и факультетов, а также бу- будет полезной инженерам и экономистам, применяю- применяющим вероятностные и статистические методы при ре- решении практических задач. о о ¦•> 47—?2 517.8 Гмурман Владимир Ефимович 11-ОИ1Я ВЕРОЯТНОСТЕН II МАТЕМАТИЧЕСКАЯ СТАТИСТИКА |'|'дпкгор Ж. 11- Яковлева 11 411II.11.T художника А. И. Д о м к о .4 у v .ни гтпмшыП редактор В. II. П о и о м я р е и к о IVk ичКиП Г1'лактор 3. Л. Муслимов.1 Kn|i|n'i< р>|> В. И. Мишанина 1'ции и ii.ifmn Ifi/I 1072 г. Подписано к печати 3/V 1972 г. Формат М 11L1/,.. С)б-ьсм 11,5 печ. л. Усл. п. л. 19,32. Уч.-изд. л. 16.46. llyi. К« ФМ-1С2. Тираж 150 000 экз. Зак. 43. Цена 5S коп. 11л,ш ni.iiivi'K.i литературы издательств.! «Высшая школа» и ижипнумы) и» 1У72 |. Позиция Ка 47. Л( « щч. К-Г>|, Моглинная ул., д. 29/Н, II11НИ.М.1 i ни «B>.iciii.iM (dv-эы ИршлшгкиП пи.11!1гр;|фкпМ1>т1.-,т Главполи.-рафпрома Комитета по пе- hi |¦¦> Синен- Министров СССР Ч|,и. .'I.HUII., vji. Синоды, 07. IP f;i i i сю к не li.n-ii»iiiu'C издание приведено в соответствие с новой [ми i'.immom. Добавлены три 1лавы: показательное рас- |ч Д| .типе, статистическая проверка статистических ги- nici. С1'икх{)акторный дисперсионным анализ. Включен м I. ihiiiux вопросов: поток случайных событий, распреде- ¦ iiiDi, снизанные с нормальным, математическое ожидание >\|||\1ши ц др. Внесены некоторые изменения и отдельные I' "in -имя. Критерий Пирсона изложен заново и перене- перенеси иj гл. XVI в гл. XIX. Изменено название книги. Выражаю благодарность Р. С. Гутеру за помощь и i олезные советы Автор
ВВЕДЕНИЕ Предмет теории вероятностей. Наблюдаемые нами со- события (явления) можно подразделить на следующие три вида: достоверные, невозможные и случайные. Достоверным называют событие, которое обязательно произойдет, если будет осуществлена определенная со- совокупность условий S. Например, если в сосуде содержится вода при нормаль- нормальном атмосферном давлении и температуре 20°, то событие «вода в сосуде находится в жидком состоянии» есть досто- достоверное. В этом примере заданные атмосферное давление и температура воды составляют совокупность условий S. Незоэчожным^ называют событие, которое заведомо не произойдет, если будет осуществлена совокупность усло- условий S. Например, событие «вода в сосуде находится в твердом состоянии» заведомо не произойдет, если будет осущест- осуществлена совокупность условии предыдущего примера. Случайным называют событие, которое при осущест- нлепин совокупности условий S может либо произойти, либо не произойти. Например, если брошена монета, то она может упасть так, что сверху будет либо герб, либо надпись. Поэтому событие «при бросании монеты выпал герб» — случайное. Каждое случайное событие, в частности — выпадение герба, есть следствие действия очень многих случайных причин (в нашем примере: сила, с которой брошена монета, ||ю|1м.| монеты и многие другие). Невозможно учесть влия- влияние ii;> результат всех этих причин, поскольку число их * ••¦••т. игл и ко и законы их действия неизвестны. Поэтому корня вероятностей не ставит перед собой задачу пред- г к.тать, произойдет единичное событие или нет,— она просто не в силах это сделать. I lo-иному обстоит дело, если рассматриваются случай- iii.ii' события, которые могут многократно наблюдаться п|)И осуществлении одних и тех же условий S, т. е. если речь идет о массовых однородных случайных событиях, иказывается, что достаточно большое число однородных случайных событий, независимо от нх конкретной природы, подчиняется определенным закономерностям, а именно — нгроятиостным закономерностям. Установлением этих за- закономерностей и занимается теория вероятностей. Итак, предметом теории вероятностей является изу- изучение вероятностных закономерностей массовых однород- однородных случайных событий. Знание закономерностей, которым подчиняются мас- массовые случайные события, позволяет предвидеть, как ти события будут протекать. Например, хотя, как было уже сказано, нельзя наперед определить результат одного Лроеания монеты, но можно предсказать, причем с не- юльшой погрешностью, число появлений герба, если монета Лудет брошена достаточно большое число раз. При этом предполагается, конечно, что монета бросается в одних и тех же условиях. Методы теории вероятностей широко применяются в р,| 1.МИЧНЫХ отраслях естествознания и техники: в теории n.i нежности, теории массового обслуживания, в теорети- ¦iri'MMi физике, геодезии, астрономии, теории стрельбы, t чфпн ошибок наблюдений, теории автоматического уп- |i;in.'iniiiH, общей теории связи и во многих других теоре- тчепшх и прикладных науках. Теория вероятностей гл\жпг гакже для обоснования математической и приклад- шid патетики, которая, в свою очередь, используется при шинировании и организации производства, при ака-
лизе технологических процессов, предупредительном и приемочном контроле качества продукции и для многих других целой. В последние годы методы теории вероятностей все шире и шире проникают в различные области науки и техники, способствуя их прогрессу. Краткая историческая справка. Первые работы, в ко- которых зарождались основные понятия теории вероятностен, представляли собой попытки создания теории азартных игр (Кардано, Гюйгенс, Паскаль, Ферма и др. в XVI— XVII вв.). Следующий этап развития теории вероятностей связан с именем Якова Бернулли A654—1705). Доказанная им теорема, получившая впоследствии название «Закона боль- больших чисел», была первым теоретическим обоснованием на- накопленных ранее фактов. Дальнейшими успехами теория вероятностей обязана Муавру, Лапласу, Гауссу, Пуассону и др. Новый, наиболее плодотворный, период связан с име- именами П. Л. Чебышева A821—1894) него учеников А. А. Мар- Маркова A856—1922) и А. М. Ляпунова A857—1918). В этот период теория вероятностей становится стройной матема- математической наукой. Ее последующее развитие обязано, в первую очередь, русским и советским математикам (С. Н. Бернштейи, В. II. Романовский, А. Н. Колмогоров, А. Я- Хинчпн, Б. В. Гнеденко, Н. В. Смирнов и др.). И настоящее время ведущая роль в создании новых ветвей теории вероятностей также принадлежит советским мате- математикам. •I n i i и первая Л У Ч ЛИ ИЫ Е СОБЫТИЯ I л mi первая IH ИОННЫЕ ПОНЯТИЯ ТЕОРИИ ВЕРОЯТНОСТЕЙ fy I. Испытания и события Выше мы назвали событие случайным, если при осуще- i Шломин определенной совокупности условий S оно может ли ю произойти, либо не произойти. В дальнейшем вместо того, чтобы говорить «совокупность условий S осущест- icna», мы будем говорить кратко: «произведено испыта- испытание». Таким образом, мы будем рассматривать событие k.ik результат испытания. Пример 1. Стрелок стреляет по мишени, разделенной п.) четыре области. Выстрел — это испытание. Попадание it определенную область мишени —-событие. Пример 2. В урне имеются цветные шары. Из урны тудлчу берут один шар. Извлечение шара из урны есть in мы глине. Появление шара определенного цвета — со- ¦I Mill*. ft 2. И и аи случайных событий События называют несовместными,_еслн появление од- iinio из них исключает появление других событий в одном ¦I [ом же испытании. Пример I. Из ящика с деталями наудачу извлечена /и-1 mi.. I (ояплепис стандартной детали исключает появление iiivi.iM uipinori детали. События «появилась стандартная яп.пи.'- и «появилась нестандартная деталь» — несовмест-
Пример 2. Брошена монета. Появление герба исклю- исключает появление надписи. События «появился герб» и «по- «появилась надпись» — несовместные. События называют единственно возможными, если поя- появление в результате испытания одного и только одного из них является достоверным событием. Очевидно, единственно возможные события попарно несовместны. Пример 3. Приобретены два билета денежно-вещевой лотереи. Обязательно произойдет одно и только одно из следующих событий: «выигрыш выпал на первый билет и не выпал на второй», «выигрыш не выпал на первый билет и выпал «а второй», «выигрыш выпал на оба билета», «на оба билета выигрыш не выпал». Эти события единственно возможные. Пример 4. Стрелок произвел выстрел по цели. Обя- Обязательно произойдет одно из следующих двух событий: попадание или промах Эти события единственно возмож- возможные. События называют равновозможными, если есть осно- основания считать, что ни одно из этих событии не является более возможным, чем другие. Пример 5. Появление герба и появление надписи при бросании монеты есть события равновозможные. Действи- Действительно, предполагается, что монета изготовлена из одно- однородного материала, имеет правильную цилиндрическую форму и наличие чеканки не оказывает влияния на выпаде- выпадение топ или иной стороны монеты. Пример 6. Появление того или иного числа очков на брошенной игральной кости есть события равновозможные. Действительно, предполагается, что игральная кость из- изготовлена из однородного материала, имеет форму правиль- правильного многогранника и наличие очков не оказывает влияния на выпадение тон или иной грани. § 3. Классическое определение нероигносш Вероятность является одним п.« основных понятий тео- теории вероятностен. Существует несколько определений это- к> понятия. Здесь будет д;шо определение, которое назы- н;и|)г классическим. Далее (§ 6) мы укажем слабые стороны nioin определения и приведем друпк* (статистическое) itii|>r;iivieiiiic вероятности, позволяющее преодолеть педос- laiKii классического определении. I'm i мофим пример. Пусть в урне содержится 6 одина- н мх, мц.I4'льн() перемешанных шаров, причем 2 из них — при!т.»', ;1 — синие и 1—белый. Очевидно, возможность in.iiiyih наудачу из урны цветной шар (т.е. красный или i шиш) Гильше, чем возможность извлечь белый шар. Мож- IIU 'in охарактеризовать эту возможность числом? Оказы- luii ни, можно. Это число и называют вероятностью со- H.IIIMI I'.ikhm образом, вероятность есть число, характе- liimniinre возможность появления события. Iliii-iiiiiiiM своей задачей дать количественную оценку шиможмосги того, что взятый наудачу шар будет цветным. lliiMii/K'in.e цветного шара будем рассматривать в качестве t-ririi.iiич А. Каждый из возможных результатов испытания (ш питание состоит в извлечении шара из урны), т. е. |<н»иДО1' событие, которое может наступить в испытании, и i iiiin-M элементарным исходом. Элементарные исходы иг мчим через ?ь Е2, Е3 и т.д. В нашем примере воз- |п IUH.I следующие 6 элементарных исходов: Et— появился ni iuii шар; Ег, ?3— появился красный шар; Et, Ел, Е6— помнился синий шар. JIi'ikd видеть, что эти исходы единственно возможны (и я.мгелыю появится один шар) и равновозможны (шар шлшмлют наудачу, шары одинаковы и тщательно пере- перемни.шм). 1г элементарные исходы, при которых интересующее п i * событие наступает, назовем благоприятствующими это- iy гиЛыгпю. В нашем примере благоприятствуют событию А (миин.кчшю цветного шара) следующие 5 исходов: ?2. Е3, I . !¦:„, Ев. Oiшипение числа благоприятствующих событию А эле- ки-111.ipin.ix исходов к их общему числу называют вероят- П( гп.ю события А и обозначают Р(А). В рассматриваемом примере исего элементарных исходов — 6, из них 5 бла- пифимгетнуют событию А. Следовательно, вероятность шт. чп> плятый шар окажется цветным, равна Р(А)==-^-ш II liririiimc число (вероятность) и дает ту колнчествеп- ¦ iVк• ши-пку позможпостн появления цветного шара, кото- которую мы поставили своей задачей найти. Л.| шм юигрь определение вероятности. Нг/тчшностью события А называют отношение числа о ппифшмггиующнх этому событию исходов к общему •ни iv и*ч'ч единственно возможных и равновозможных эле- n in фных исходов испытания
Таким образом, вероятность события А определяется формулой где т — число элементарных исходов, благоприятствую- благоприятствующих событию А; п — число всех возможных элементарных исходов испытания. Здесь предполагается, что элементар- элементарные исходы единственно возможны и равновозможны. Из определения вероятности вытекают следующие ее свойства: I. Вероятность достоверного события равна единице. Действительно, если событие достоверно, то каждый элементарный исход испытания благоприятствует событию. В зтом случае т=п и, следовательно, 2. Вероятность невозможного события равна нулю. Действительно, если событие невозможно, то ни один из элементарных исходов испытания не благоприятствует событию. В этом случае т=0 и, следовательно, 3. Вероятность случайного события есть положитель- положительное число, заключенное между нулем и единицей. Действительно, случайному событию благоприятствует лишь часть из общего числа "элементарных исходов испы- испытания. В этом случае 0<т<п, а, значит, 0<-^-<1 и, сле- следовательно, Итак, вероятность любого события удовлетворяет не- неравенствам Далее будут указаны теоремы, которые значительно )прощают решение многих задач. Пока же припечем при- примеры, при решении которых используется лишь опреде- определение вероятности. Ю Л. Примеры непосредственного мчисления вероятностей Пример I. Набирая номер телефона, абонент забыл и иiу цифру н набрал ее наудачу. Найти вероятность того, чю набрана нужная цифра. I' о ш е н н е. Обозначим через А событие — набрана нужная цифра. Абонент мог набрать любую из 10 цифр, поэтому общее Ч1к;ю возможных элементарных исходов равно 10. Эти |1гчиды единственно возможны (одна из цифр набрана обя- шглыю) и равновозможпы (цифра набрана наудачу). Г>;1агоприятствует событию А липь один исход (нужная Цифра лишь одна). Искомая вероятность равна отношению числа исходов, пл.поприятствуюишх событию, к числу всех элементарных in ходов: Пример 2. Набирая номер телефона, абонент забыл шк-леднпс две цифры и, помня лишь, что эти цифры раз- различны, набрал их наудачу. Найти вероятность того, что плбрамы нужные цифры. Р с ш с н и с. Обозначим через В событие — набраны пи- нужные цифры. Исего можно набрать столько пар -различных цифр, гколько может быть составлено размещений из десяти цифр по две, т.е. Ла,0= 10-9=90. Таким образом, общее числи возможных элементарных исходов равно 90. Эти пе- пени lu единственно возможны и равновозможны. Благо- |||ш>| ivruyeT событию В лишь один исход. 11скомля вероятность равна отношению числа исходов, fViaiDiipnHTCTByioiunx событию, к числу всех элементарных \\r\u юн: Р (В) = —. k 90 Пример 3. Указать ошибку «решения» задачи: «Броше- «Брошены и»1 тральные косги. Найти вероятность того, что сум- м i iii.iiuiuiiiix очков равна 4 (событие А)». \' I1 ш г и и с. Всего возможны 2 исхода испытания: i умм i нмпашннх очков равна 4, сумма выпавших очков не 11
равна 4 Поскольку событию А благоприятствует один исход, а общее число исходов равно двум,— искомая ве- вероятность Р(А) = —-. Ошибка этого решения состоит в том, что рассматри- рассматриваемые исходы не являются равновозможнымп. Правильное решение. Общее число рав- иовозможных исходов испытания равно 6-6=36 (каждое число выпавших очков на одной кости может сочетаться со всеми числами очков другой кости). Среди этих исходов благоприятствуют событию А только 3 исхода: (I; 3), C; I), B; 2) (в скобках указаны числа выпавших очков). Следовательно, искомая вероятность 36 — 12 Пример 4. В партии из 10 детален имеется 7 стандарт- стандартных. Найти вероятность того, что среди шести взятых нау- наудачу деталей, ровно 4 стандартных. Решение. Общее число возможных элементарных исходов испытания равно числу способов, которыми мож- можно извлечь 6 деталей из 10, т. е. числу сочетаний из 10 эле- элементов по 6 (С*ю). Подсчитаем число исходов, благоприятствующих инте- интересующему пас событию А — среди шести взятых деталей ровно 4 стандартных: 4 стандартные детали можно взять из 7 стандартных деталей С* способами; при этом остальные 6—4=2 детали должны быть нестандартными; взять же 2 нестандартные детали из 10—7=3 нестандартных дета- деталей можно Сз способами. Следовательно, число благо- благоприятствующих исходов равно Cj-Ci Искомая вероятность равна отношению числа исходов, благоприятствующих событию, к числу всех элементарных исходов: Р(А) = г4 г2 Ч (з '10 § 5. Относительная частота. Устойчивость относительной частоты Относительная частота, наряду с вероятностью, при- принадлежит к основным понятиям теории вероятностей. 12 Ьшиытельной частотой события называют отношение • in л.) испытании, в которых событие появилось, к общему и |i> iy фактически произведенных испытаний. l.iKiiM образом, относительная частота события А оп- |м и л не ген формулой IV (Л) = -^. I • т — число появлений события, п — общее число ис- 111.11.ШИН. Сопоставляя определения вероятности и относительной ч и*юты, заключаем: определение вероятности не тре- >yri, чтобы испытания производились в действительности; ипргделение же относительной частоты предполагает, что иныгания были произведены фактически. Другими сло- Н.1МП, вероятность вычисляют до опы- 1.1, а относительную частоту — после и ы т а. Пример I. Отдел технического контроля обнаружил ,1 нестандартных детали в партии из 80 случайно отобранных u-галей. Относительная частота появления нестандартных ¦млей IP (A) = 80 Пример 2. По цели произвели 24 выстрела, причем П|.1ло зарегистрировано 19 попаданий. Относительная час- |цга поражения цели /Длительные наблюдения показали, что если в одинако- •иjx условиях производятся опыты, в каждом из которых число испытаний достаточно велико, то относительная ч.итога обнаруживает свойство устойчивости. Это свойство гш-гинт в том, что в различных опытах 1i и о с и г е л ь и а я частота изменяется и и л о (т е м меньше, чем больше п р о и з- щ'Чепо испытаний), колеблясь около иг которого постоянного числа. Ока- in.iiin., что это постоянное число есть вероятность появле- появлении гобмтия. 13
Таким образом, если опытным путем установлена отно- относительная частота, то полученное число можно принять за приближенное значение вероятности. Подробнее н точнее связь между относительной часто- частотой и вероятностью будет изложена далее.Теперь же про- проиллюстрируем свойство устойчивости на примерах. Пример 3. По данным шведской статистики относитель- относительная частота рождения девочек за 1935 г. по месяцам харак- характеризуется следующими числами (числа расположены в порядке следования месяцев, начиная с января): 0,486; 0,489; 0,490; 0,471; 0,478; 0,482; 0.462; 0,484; 0,485; 0,491; 0,482; 0,473. Относительная частота колеблется около числа 0,482, которое можно принять за приближенное значение вероят- вероятности рождения девочек Заметим, что статистические данные различных стран дают примерно то же значение относительной частоты. Пример 4. Многократно проводились опыты бросания монеты, в которых подсчитывали число появления герба. Результаты нескольких опытов приведены в таблице 1. Таблица 1 Число С|-осаний 404U 12 000 24 000 Число появлений герба 2О4.й 6019 12 012 Относительная частота 0,5009 0,50lfi 0,5005 Здесь относительные частоты незначительно отклоня- отклоняются от числа 0,5, причем тем меньше, чем больше число испытаний. Например, при 4040 испытаниях отклонение равно 0.0069, а при 24 000 испытаний — лишь 0,0005. Приняв во внимание, что вероятность появления герба при бросании монеты равна 0,5. мы вновь убеждаемся, что относительная частота колеблем» околи вероятности. $ 6. Ограниченное1ь классического определения вероятности. Статистическая вероятность «Классическое» определение вероятности предполагает, чго число элементарных исходов испытания — конечно. Па практике же весьма часто встречаются испытания, чне- II it 1ИПМОЖ х исходов которых — бесконечно. В таких классическое определение неприменимо. Уже это ibcTBO указывает на ограниченность классичсс- i inн (ифснменин. Правда, указанный недостаток может ¦и ih преодолен путем соответствующего обобщения опре- iiijiriiihi вероятности. П.шболес слабая сторона классического определения 1чи-шит в том, что очень часто невозможно представить |ипу.'1[.тат испытания в виде совокупности элементарных • idiiinrii. Еще труднее указать основания, позволяющие •4i!i;iri> элементарные события равновозможными. Обычно о равповозможностн элементарных исходов испытания н<лючают нз соображений симметрии. Так обстоит дело, например, при бросании игральной кости, когда предпо- мглют, что кость имеет форму правильного многогранника (куба). Однако задачи, в которых можно исходить из со- >бражеш(н симметрии, на практике встречаются весьма редко. По этой причине наряду с классическим определением пользуются также статистическим определением вероят- вероятности, принимая за вероятность события относительную частоту или число, близкое к ней. Например, если в резуль- результате достаточно большого числа испытаний оказалось, чго относительная частота весьма близка к числу 0,4, то это число можно принять за статистическую вероятность события. а д а ч и 1. В ящике имеется 50 одинаковых деталей, из них 5 окра- окрашенных. Наудачу вынимают одну деталь. Найти вероятность того, что извлеченная деталь окажется окрашенной. Отв. р = 0,1. 2. Брошена игральная кость. Найти вероятность того, что вы- и 1дет четное число очков. Ото. р — 0,5. 3. Участники жеребьевки тянут из ящика жетоны с номерами от 1 до 100. Пайтн вероятность того, что номер первого, наудачу «•влеченного жетона, не "содержит цифры 5. Отв. р = 0,81. 4. В чепюпке имеется 5 одинаковых кубиков. На всех гранях кнждого кубика написана одна из следующих букв: о, п, р, с, т. Пойти вероятность того, что на вынутых сто одному и расположен- расположенных «в одну линию» кубиках можно будет прочесть слово «спорт». Отв. р =ш 15
5. На каждой из шести одинаковых карточек напечатана одна иа следующих букв: а, т. м, р. с, о. Карточки тщательно перемеша- перемешаны. Найти вероятность того, что на четырех, пинутых по одной и расположенных «в одну линию» карточках, можно будет про- прочесть слово «троо J_ 1 Отв. р = ? =ggo Л ¦ 6.'Куб. все грани которого окрашены, распилен на тысячу кубиков одинакового размера, которые затем тщательно перемеша- перемешаны. Найти вероятность того, что наудачу извлеченный кубик будет иметь окрашенных граней: а) одну; б) две; в) три. Отв. а) 0,384; б) 0.096; в) 0.008. 7. Из тщательно перемешанного полного набора 28 костей домино наудачу извлечена кость. Найти пероятпость того, что вто- вторую наудачу извлеченную кость можно прнстапнть к нерпой, если первая кость: а) оказалась дублем; б) не есть дубль. 2 4 Отв. a) -g- i б) -д- 8. В замке на обшей оси пять дисков, каждый из которых раз- разделен на шесть секторов с различными написанными на них буква- буквами. Замок открываете^ только в том случае, если каждый днЬк за- занимает одно определенное положение относительно корпуса замка. Нантн вероятность того, что при произвольной установке дисков замок можно будет открыть Отв. р = -gf 9. Восемь различных книг расставляются наудачу на одной полке. Найти вероятность того, что дпе определенные книги ока- окажутся поставленными рядом 7-21-6! I Отв. р = gj = ~j 10. Библиотечка состоит из десяти различных книг, причем пять книг стоят по 4 рубля каждая, трн книги — по одному рублю и две книги — по 3 рубля. Найти вероятность того, что взятые наудачу две кннгн стоят 5 рублен. С1, ¦ Cl + С). ¦ С* Отв р = — С2 ~~ 9 11. В партии нз 100 деталей отдел технического контроля обна- обнаружил 5 нестандартных деталей. Чему раина относительная час- частота появления нестандартных детален? Отв ч> — 0.05. 12. При стрельбе из винтовки относительная частота попада- попадания в цель оказалась рапной 0,85 Найти число попаданий, если' всего было произведено 120 выстрелоп. Отв 102 попадания 16 Глава вторая ТЕОРЕМА СЛОЖЕНИЯ ВЕРОЯТНОСТЕЙ § I. Теорема сложения вероятностей несовместных событий ^Суммой А±В двух событий А л В называют событие, состоящее в появлении события А или события В, или обоих этих событий. Например, если из орудия произведены два выстрела и А — попадание при первом выстреле, В — попадание при втором выстреле, то А +В — попадание при первом выстреле, или при втором, или в обоих выстрелах. В частности, если два события А и В — несовместные, то А +В — событие, состоящее в пояапении одного из этих событии, безразлично какого. Суммой нескольких событий называют событие, которое состоит в появлении хотя бы одного из этих событий. Например, событие /1+В+С состоит в появлении од- одного из следующих событий: А, В, С, А к В. А а С, В н С, А и В и С. Пусть события А и В — несовместные, причем вероят- вероятности этих событий даны. Как найти вероятность того, что наступит либо событие А, либо событие В? Ответ на этот вопрос дает теорема сложения. Теорема. Вероятность появления одного из двух несов- несовместных событий, безразлично какого, равна сумме ве- вероятностей этих событий: Доказательство. Введем обозначения: п — общее число возможных элементарных исходов испытания; т,— число исходов, благоприятствующих событию Л; тг— число исходов, благоприятствующих событию В. Число элементарных исходов, благоприятствующих на- наступлению либо события Л, либо события В, равно ш,+//г2. Следовательно, Р(А+ В) -j- "fy I Till П П Приняв во внимание, что — = Р(/1)и — 17
окончательно получим ) Следствие. Вероятность появления одного из нескольких попарно несовместных событий, безразлично какого, равна сумме вероятностей этих событий: Р(А1+А2+...+Ап)=Р(Лд+Р(Ад+...+Р{Ап). Доказательство. Рассмотрим три события А, В и С. Так как рассматриваемые события попарно несов- несовместны, то появление одного из трех событии А, В и С, равносильно наступлению одного из двух событии А + В и С, поэтому, в силу указанной теоремы, Р{Л+В+С) = Р1{Л+В)+С]=Р(Л+В)+Р(С)=> = Р(А)+Р(В)+Р(С). Для произвольного числа попарно несовместных собы- событии доказательство проводится методом математической индукции. Пример I. В урне 30 шаров: 10 красных, 5 синих и 15 белых. Найти вероятность поя&1ения цветного шара. Решение. Появление цветного шара означает поя- появление либо красного, либо синего шара. Вероятность появления красного шара (событие А) 1 30 3 Вероятность появления синего шара (событие В) V 30 6 События А и В несовместны (появление шара одного цвега исключает появление шара другого цвета), поэтому теорема сложения применима. Искомая вероятность { + ) p(A) + P(B) = -L + -L=-L. О D J, Пример 2. Стрелок стреляет по мпшемн, разделенной па 3 области. Вероятность попадания в первую область рав- равна 0,45, во вторую — 0,35. Найти вероятность того, что с грелок при одном выстреле попадет либо в первую, либо во вторую область. Решение. События А — «стрелок попал в первую область» и В — «стрелок попал во вторую область» — несовместны (попадание в одну область исключает попа- попадание в другую), поэтому теорема сложения применима. Искомая вероятность Р{А + В)=Р(А)+ Р[В) =0,45+0,35=0,80. § 2. Полная группа событий Полной группой называют совокупность единственно возможных событий испытания. Пример I. Стрелок производит по мишени 2 выстрела. События At (одно попадание), А2 B попадания) и А3 (про- (промах) образуют полную группу. Теорема. Сумма вероятностей событий Л4, Л2 Ап, об/нмукнцих полную группу, равна единице: Доказательство. Так как появление одного из событий полной группы достоверно, а вероятность досто- достоверного события равна единице, то Любые два события полной группы несовместны, поэ- поэтому можно применить теорему сложения: Р(Л,+Л2+...+Лп)=Р(Л1)+Р(Лг)-г-,..+Р(Л,1). (**) - Сравнивая (*) и (**), получим Р(Л,)+Р(Л2)+...+Р(Лп)=1. Пример 2. Консультационный пункт института по- получает пакеты с контрольными работами из городов А, И и С. Вероятность получения пакета из города А равна 0,7, из города В — 0,2. Найти вероятность того, что оче- [и'шой пакет будет получен из города С. Решение. События «пакет получен из города А», «па- «пакет получен из города В» и «пакет получен из города С» пемзуют полную группу, поэтому сумма вероятностей гнх событий равна единице: 0,7+0,2+р=1. Оиипа искомая вероятность р= 1—0,9=0,1.
§ 3. Противоположные события Противоположными называют два единственно возмож- возможных события, образующих полною группу. Если одно из двух противоположных событий обозначено через А, то другое принято обозначать А. Пример I, Попадание и промах при выстреле по це- цели — противоположные события. Если А — попадание, то Л — промах. Пример 2. Из ящика наудачу взята деталь. События «появилась стандартная деталь» и «появилась нестандарт- нестандартная деталь» — противоположные. Теорема. Сумма вероятностей противоположных со- событий равна единице: Р(А)+Р(А) = 1. Доказательство. Противоположные события об- образуют полную группу, а сумма вероятностей событий, образующих полную группу, равна единице (§ 2) Замечание 1. Если вероятность одного из двух противо- противоположных событий обозначена через р, то вероятность другого со- события обозначают через q Таким образом, в силу предыдущей теоремы Пример 3. Вероятность того, что день будет дождли- дождливым р=0,7. Найти вероятность того, что день будет ясным. Решение. События «день дождливый» и «день яс- ясный» — противопаюжные, поэтому искомая вероятность q= 1— р= 1 -0.7 = 0.3. Замечание 2. При решении задач на отыскание вероят ностн события А часто выгодно сначала вычислить вероятностк события А, а затем наПти искомую вероятность по i|iop\iy.ie: PMl-l-P (A) Пример 4. В ящике имеется п деталей, из которых т стандартных. Найти вероятность того, что среди k нау- наудачу извлеченных деталей есть хотя бы одна стандартная Решение. События «среди извлеченных деталей есть хотя бы одна стандартная» и «среди извлеченных де- талей нет ни одной стандартной» — противоположные. Обозначим первое событие через А, а второе через А. 20 Очевидно Г(Л) = 1—Р{А). Найдем Р{А). Общее число способов, которыми можно- 1ивлечьА деталей из п деталей, равно С*. Число нестандарт- 1и IX деталей равно п—т; из этого числа детален можно С*_т способами извлечь k нестандартных детален. Поэтому ве- вероятность того, что среди извлеченных k деталей нет ни одной стандартной, равна Р(А)- Искомая вероятность Р(А)= 1 С* § 4. Принцип практической невозможности маловероятных событий При решении многих практических задач приходится иметь дело с событиями, вероятность которых весьма мала, г. е. близка к нулю. Можно ли считать, что маловероятное событие А в единичном испытании не произойдет? Такого заключения сделать нельзя, так как не исключено, хотя и мало вероятно, что событие А наступит. Казалось бы, появление или непоявление маловероят- маловероятного события в единичном испытании предсказать невоз- невозможно Однако длительный опыт показывает, что малове- маловероятное событие в единичном испытании в подавляющем большинстве случаев не наступает На основании этого факта принимают следующий «принцип практической невозможности маловероятных событий»: если случайное событие имеет очень малую вероятность, то практически можно считать, что в единичном испытании это событие не наступит. Естественно возникает вопрос: насколько малой должна быть вероятность события, чтобы можно было считать не- ио.шожным его появление в, одном испытании? На этот нопрос нельзя ответить однозначно. Для задач, различных по существу, ответы будут разными. Например, если ве- вероятность того, что парашют при прыжке не раскроется, р.шиа 0,01, то было бы недопустимым применять такие па- парашюты. Если же вероятность того, что поезд дальнего следования прибудет с опозданием, равна 0,01, то можно 21
практически быть уверенным, что поезд прибуяет вовремя. Достаточно малую вероятность, при которой (в данной определенной задаче) событие можно считать практически невозможным, называют уровне» значимости. На практи- практике обычно принимают уровни значимости, заключенные между 0,01 и 0,05. Уровень значимости, равным 0.01, на- называют однопроцентным; уровень значимости, равный 0,02, назынают двухпроцентным и г. д. Подчеркнем, что рассмотренный здесь принцип поз- позволяет делать предсказания не только о событиях, имею- имеющих малую вероятность, но п о событиях, вероятность ко- которых близка к единице. Действительно, если событие А имеет вероятность близкую к нулю, то вероятность проти- противоположного события А близка к единице. С другой сто- стороны, непоявление события А означает наступление проти- противоположного события .1. Таким образом, из принципа не- невозможности маловероятных событии вытекает следующее важное для приложений следствие: если случайное событие имеет вероятность очень близкую к единице, то практи- практически можно считать, что в единичном испытании это событие наступит. Разумеется, и здесь ответ на вопрос о том, какую вероятность считать близкой к единице, зави- зависит от существа задачи. Задачи 1. В денежно-вешепой лотерее на каждые 10 000 билетов ра- разыгрываете» 150 пошеиых и 50 денежных выигрышем. Чему раина вероятность выигрыши, безразлично денежного пли вещевого, для владельца одного лотерейного билета? Отв. р = 0,02. 2. Вероятность того, что стрелок при одном выстрел выбьет 10 очкоп, равна 0,1; вероятность пыбпть 9 очкои рапна 0,3; вероят- вероятность выбить 8 нли меньше очкои рапна 0,6. Наптн вероятность того, что при одном выстреле стрелок пыбьст не менее 9 очков. Ошв. р = 0.4. 3. В партии из 10 деталей 8 стандартных, ll.-iimi вероятность того, что среди наудачу повлеченных 2 деталей есть хотя бы oiiia стандартная. 44 Отв. Р = -45 ¦ 1. В ящике 10 ,-еталей, среди которых 2 нестандартных. Наптн пероятность того, что в наудачу отобранных 6 деталях окажется не более одной нестандартной детали. 2 Отв. р = -jj- Указание. Если А — нет ни очной нестандартной детали, В — есть одна иестапчартная деталь, то П •tio -ю 5. События А, В, С и D образуют Тю-Тную систему. Вероятиос- 1П событий такоиы: Р (А) = 0,1; Р (В) = 0,4; Р (С) = 0,3. Чему рлина вероятность события D? Ome. P (D) = 0,2. в. По статистическим цапиым ремонтной мастерской в среднем ил 20 остановок токарного стайка приходится: 10 — для смены резца; 3 — из-за неисправности привода; 2 — из-за несвоевремен- несвоевременной подами заготовок. Остальные остановки происходят по другим причинам. Наптн вероятность остановки стачка по другим прнчн- UdM. Ото. р = 0,25. I лава третья ТЕОРЕМА УМНОЖЕНИЯ ВЕРОЯТНОСТЕЙ § 1. Независимые и зависимые события Два события называют независимыми, если вероятность одного из них не зависит от появления или непоявления другого. Пример I. Монета брошена 2 раза. Вероятность появле- появления герба в первом испытании (событие А) не зависит от появления или непоявления герба во втором испытании (со- (событие В). В свою очередь, вероятность -выпадения герба во втором испытании не зависит от результата первого ис- испытания. Таким образом, события А и В — независимые. Пример 2. В урне 5 белых и 3 черных шара. Из нее наудачу берут одни шар. Очевидно, вероятность появления белого шара (событие .1) равна —¦. Взятый шар возвращают в урну и испытание повторяют. Вероятность появления белого шара'гфн втором испытании (событие В), по-преж- 5 нему, равна -g- и не зависит от результата первого испы- испытания. В свою очередь, вероятность извлечения белого шара при первом испытании не зависш от исхода второго испытания. Таким образом, события 1 и В — независимые. Несколько событии налипают попарно независимы ни, если каждые дна из них независимы. Пример 3. Монета брошена 3 раза. Пусть А, В, С — события, состояние в появлении герба соответственно в первом, втором и третьем испытаниях. Ясно, что каждые 23
два из рассматриваемых событий (т. е. А и В, А п С, В и С)— независимы. Таким образом, события А, В а С— попарно независимые. Два события называют зависимыми, если вероятность появления одного из"Ън*-зявисйт от наступления или не- наступлення другого события. Пример 4. В ящике 100 деталей: 80 стандартных и 20 нестандартных. Наудачу берут одну деталь, не возвращая ее в ящик. Если появилась стандартная деталь (событие А), то вероятность извлечения стандартной детали при 79 втором испытании (событие В) Р(В)=-щ; если же в первом испытании вынута нестандартная деталь, то нероятность g g Таким образом, вероятность появления события В за- зависит от наступления или ненаступления события А Со- События А и В — зависимые. § 2. Теорема умножения вероятностей независимых событий Произведением двух событий А и В называют событие АВ, состоящее в совместном появлении (совмещении) этих событий. Например, если в ящике содержатся детали, изготов- изготовленные заводами № 1 и № 2, и Л — появление стандарт- стандартной детали, В — деталь изготовлена заводом № 1, то АВ — появление стандартной детали завода № I. Произведением нескольких событий называют событие, состоящее в совместном появлении всех этих собы- событий. Например, событие ABC состоит в совмещении событий А, В \\ С. Пусть события А и В независимые, причем вероятности этих событий известны. Как найти вероятность совмещения событий А и В? Ответ на этот вопрос дасг п'орема умно- умножения. Теорема. Вероятность совместного появления двух не- независимых событий равна произведению вероятностей этих событий: Р(АВ) = Р{А).Р(В). Доказательство. Введем обозначения: п — число возможных элементарных исходов испыта- испытания, и которых событие А наступает или не наступает; 24 i— число исходов, благоприятствующих событию ) т —число возможных элементарных исходов испыта- испытания, в которых событие В наступает или не наступает; — число исходов, благоприятствующих событию ) Общее число возможных элементарных неходов испы- испытания (в которых наступает и Л и В, либо А и В, либо А и В, либо А и В) равно пт. Действительно, каждый из п исходов, в которых событие А наступает или не насту- наступает, может сочетаться с каждым из т исходов, в которых событие В появляется или не появляется. Из этого числа n^tii исходов благоприятствуют сов- совмещению событий А и В. Действительно, каждый из л, исходов, благоприятствующих событию А, может сочетать- сочетаться с каждым из /Л| исходов, благоприятствующих собы- событию В. Вероятность совместного наступления событий Л и В пт п т _5i=j т. Приняв во внимание, что-^-=Р(Л) и ¦—¦ =Р{В), окон- окончательно получим: Р(АВ) = Р(А)-Р{В). Для того чтобы обобщить теорему умножения на нес- несколько событий, введем понятие независимости событий в совокупности. Несколько событий называют независимыми в совокуп- совокупности, если каждое из них и любая комбинация осталь- остальных событий (содержащая либо все остальные события, либо часть нз них) есть события независимые. Например, если события Alt A2 и А3 независимые в совокупности, то независимыми являются события: А\ и А2, Л, и А3, А2 и А3, AiA2 и Л3, А,А3 и Аг, А2А3 и Л,. Подчеркнем, что если несколько событии независимы попарно, то отсюда еще не следует их независимость в со- совокупности. В этом смысле требование независимости событии в совокупности сильнее требования их попарной независимости. Поясним сказанное примером. Пусть в урне имеется 4 шара, окрашенные: I — в красный цвет (Д), 1 — в си- синий цвет (В), 1 — в черный цвет (С) и 1 — во все эти три цвета {ABC). 25
Чему равна вероятность Р(А) того, что извлеченный из урны шар имеет красный цвет? Так как из четырех шаров два имеют красный цвет, то Р{А)=——-^-. Рассуждая ана- аналогично, найдем: Р(В) = -|-, Р(С)=-^-. Допустим теперь, что взятый шар имеет синий цвет, т. е. что событие В уже произошло. Изменится ли вероят- вероятность того, что извлеченный шар имеет красный цвет, т. е. изменится ли вероятность события Л? Из двух шаров, имеющих синий цвет, одни шар имеет и красный цвет, поэ- поэтому вероятность события А, по-прежнему, равна -л-. Та- Таким образом, события А и В независимы. Рассуждая аналогично, придем к выводу, что события А и С, В и С независимы. Итак, события А, В и С попарно независимы. Будут ли эти события независимы в совокупности? Оказывается, не будут. Действительно, пусть извлеченный шар имеет два цвета, например, синий н черный. Чему равна вероятность того, что этот шар имеет и красный цвет? Так как лишь один шар окрашен во все три цвета, то взя- взятый шар имеет и красный цвет. Таким образом, допустив, что события В ч С произошли, мы пришли к выводу, что событие А обязательно наступит. Следовательно, это со- событие достоверно и вероятность его равна единице (а не ~^-). Итак, попарно независимые события А, В и С не яв- являются независимыми в совокупности. Приведем теперь следствие из теоремы умножения. Следствие. Вероятность совместного появления несколь- нескольких событий, независимых в совокупности, равна произве- произведению вероятностей этих событий: P(AiA2...An)=P(Ai)-P(A2)...P(An). Доказательство. Рассмотрим три события А, В и С. Совмещение событий А, В и С равносильно совме- совмещению событий А В и С, поэгому Так как события А, В и С независимы r совокупности, го независимы, в частности события А В и С, я также А и В. По теореме умножения для двух независимых событии будем иметь: ) = Р(АВ)-Р(С) Итак, окончательно получим Р(АВС)=Р(А)- Р{В)- Р(С). Для произвольного п доказательство провозится мето- методом математической индукции. Замечание. Если события Ai, Аг Ап пезаписимы п совокупности, то и протппоположиые им события Ai, Ai, ... ,А„ также независимы и совокупности. Пример 1. Найти вероятность совместного появления герба при одном бросании двух монет. Решение. Вероятность появления герба первой монеты (событие А) P(A)=-L. Вероятность появления герба второй монеты (собы- (событие В) Так как события А и В независимые, то искомая ве- вероятность по теореме умножения равна Пример 2. Имеется 3 ящика, содержащих по 10 дета- детален. В первом ящике 8, во втором 7 и в третьем 9 стандарт- стандартных деталей. Из каждого ящика наудачу вынимают по одной детали. Найти вероятность того, что все три вынутые детали окажутся стандартными. Решение. Вероятность того, что из первого ящика вынута стандартная деталь (событие А) Вероятность того, что из второго ящика вынута стан- стандартная деталь (событие В) Вероятность того, что из третьего ящика вынута стан- стандартная деталь (событие С) Р(С)= -1=0,9. 27
Так как события А, В и С независимые в совокупности, то искомая вероятность (по теореме умножения) равна = Р(Л)-Р(б)-Р(С)=0,8-0,7.0,9=0,504. Приведем пример совместного применения теорем сло- сложения и умножения Пример 3. Вероятности появления каждого из трех независимых событий Л,, А2, А3 соответственно равны plt Pz, Рз- Найти вероятность появления только одного из этих событий. Решение. Заметим, что, например, появление толь- только первого события Л, равносильно появлению события АхАгА3 (появилось первое и не появились второе и третье события). Введем обозначения: Bt—появилось только событие Л,, т.е. Bt=A^A^A3\ 82— появилось только событие А2, т. е. B2=A2AiA3; 83— появилось только событие Д3, т. е. В3=А^АХА2. Таким образом, чтобы найти вероятность появления только одного из событий А1у А2, А3, будем искать вероят- вероятность Р{В,-{-В2+В3) появления одного, безразлично ка- какого из событии б,, В2, В3. Так как события бь В2, б3 несовместны, то применима теорема сложения: P(Bt +В2+В3) = Остается найти вероятности каждого из событий б,, б2, в3. События Л,, А2, А3 независимы, следовательно, неза- независимы события Л|, А2, А3, поэтому к ним применима тео- теорема умножения: Аналогично: Подставив эти вероятности в (*), найдем искомую вероятность появления только одного из событий Л,, А2, Л3: Р{В ,+62+ B3)= 28 ? 3. Вероятность появления хотя бы одного события Пусть в результате испытания может появиться п со- событий независимых в совокупности, либо некоторые из них (в частности, только одно или пи одного), причем ве- вероятности появления каждого из событий известны. Как найти вероятность того,что наступит хотя бы одно из этих событий? Например, если в результате испытания могут появиться три события, то появление хотя бы одного из этих событий означает наступление либо одного, либо двух, либо трех событий. Ответ на поставленный вопрос дает следующая теорема. Теорема. Вероятность появления хотя бы одного из событий Л,, Л2> .-., Л„, независимых в совокупности, равна разнжти между единицей и произведением вероятностей противоположных событий А \А 2. ..А„: ) = 1— ЯДг-Яп (*) Доказательство. Обозначим через Л событие, состоящее в появлении хотя бы одного из событий Ль А2 Ап. События Л и AtA2...An (ни одно из событий не наступило) противоположны, следовательно, сумма их вероятностей равна единице: Р{А)+Р{А1Ъг...Ап)=1 Отсюда, пользуясь теоремой умножения, получим: или P{A)=l—qtq2 ... qn. Частный случай Если события Л,, Л2 Л„ имеют одинаковую вероятность, равную р, то вероятность появления хотя бы одного из этих событий P{A)=l—qn. (**) Пример I. Вероятности попадания в цель при стрель- стрельбе из трех орудий таковы: р,=0,8; p2—0J; p3=0,9. Найти нероягность хотя бы одного попадания (событие Л) при одном залпе из всех орудии. Р с ш е н и е. Вероятность попадания в цель каждым из ие зависит от результатов стрельбы из других 29
орудии, поэтому рассматриваемые события Л, (попадание первого орудия), Л2 (попадание второго орудия) и А3 (по- (попадание третьего орудия) независимы в совокупности. Вероятности событии, противоположных событиям Л,, А2ч Л3(т. е. вероятности промахов), соответственно равны: 0, = 1-р,= 1-0,8=0,2; fc-l—Р2= 1—0,7=0,3; 0з=1—Рз= 1—0,9=0,1- Искомая вероятность Р(Л)=1— 0,0^3=1— 0.2-0.3-0,1=0,994. Пример 2. В типографии имеется 4 плоскопечатных машины. Для каждой машины вероятность того, что она работает в данный момент, равна 0,9. Найти вероятность того, что в данный момент работает хотя бы одна машина (событие Л) Решение. Так как события «машина работает» и «машина не работает» (в данный момент) противоположные, то сумма их вероятностен равна единице: Р+0=1. Отсюда вероятность того, что машина в данный момент не работает, равна I09(U Искомая вероятность P(A)=\—q*= 1—0,1 '=0,9999. Так как полученная вероятность весьма бчнзка к еди- единице, то, па основании следствия нз принципа практичес- практической невозможности маловероятных событии, мы вправе заключить, что в данный момент работает хотя бы одна нз машин. Пример 3. Вероятность того, что при одном выстре- выстреле стрелок попадает в цель, равна 0,4. Сколько выстрелов должен произвести стрелок, чтобы с вероятностью не менее 0,9 он попал в цель хотя бы одни раз? Р с ш с и и е. Обозначим через А событие: при п вы стрелах стрелок попадает в цель хотя бы одни раз. События, состоящие в попадании в цель при первом, и юром и т. д выстрелах, независимы в совокупности, поэ- тму применима формула (**) Приняв во внимание, что по условию Р(Л)>-0,9, р = —0,1 (следовательно, 0=1—0,4=0,6), получим: I—0,6">0,9. > 11'!О 11|1и'!11гарпфмируем это неравенство по основанию ) л lgO.GOgO.I. ia, учитывая, что Ig 0,6<0, имеем .l -I -I 10: п> 1,7782 —0,2218 = 4,о. 11так, л>5, т. е. стрелок должен произвести не менее •> ныстрелов. Пример 4. Вероятность того, что событие появится хотя бы один раз в трех независимых в совокупности нспы- '•" их, равна 0,936. Найти вероятность появления собы- |пн в оздом испытании (предполагается, что во всех пепы- ппшях вероятность появления события одна и та же). Решение. Так как рассматриваемые события неза- независимы в совокупностн, где применима формула (**) P(A)=l-q». Но условию Р(Л)=0,93С; п=3. Следовательно, 0,936=1—7я, или д3^ 1-0,936=0,064. • >гсюда 0-f 07N4=0.4. И'комая вероятность р= \—q=: |_0,4-0,6. 4. Условная вероятность Пусть события .4 п В зависимые. Из определения завн- гнмых событии следует, что вероятность одного из событии i инкит от появления или непоявления другого. Поэтому, «-cm пас интересует вероятность, например события В, п> плжио знать, наступило ли событие А. 31
Условной вероятностью Ра(Щ называют вероятность события В, вычисленную в предположении, что событие А уже наступило. Пример. В урне содержится 3 белых и 3 черных шара. Из урны дважды вынимают наудачу по одному шару, не возвращая их в урну. Найти вероятность появления белого шара при втором испытании (событие В), если при первом испытании был извлечен черный шар (событие А). Решение. После первого испытания в урне осталось всего 5 шаров, из них 3 белых. Искомая условная вероят- вероятность 4 Замечание. Из определения независимых событий сле- следует, что появление одного из них не изменяет вероятности наступ- наступления другого. Поэтому для независимых событий справедливы равенства: РЛ(В) = Р{В) и Р ь{А\ = Р(А). Таким образом, условные вероятности независимых событий равны их безусловным вероятностям. § 5. Теорема умножения вероятностей зависимых событий Пусть события А и В зависимые, причем вероятности Р(А) и Ра(В) известны. Как найти вероятность совмещения этих событий, т. е. вероятность того, что появится и собы- событие А и событие В? Ответ на этот вопрос дает теорема ум- умножения. Теорема. Вероятность совместного появления двух за- зависимых событий равна произведению вероятности од- одного из них на условную вероятность другого, вычисленную в предположении, что первое событие уже наступило: Р(АВ) = Р(А)-РЛ{В). Доказательство. Введем обозначения: п — число возможных элементарных исходов испыта- испытания, в которых событие А наступает или не наступает; nt— число исходов, благоприятствующих событию А («!<«); т — число элементарных исходов испытания, в которых наступает событие В, в предположении, что событие А уже 32 наступило, т. е. эти исходы благоприятствуют наступлению события AB(mjCnt). Вероятность совместного появления событий А и В П П /1] Приняв во внимание, что ^- = Р(А) и — = Ра(В), окончательно получим Р(АВ)=Р(А)-РА(В). (*) Замечание I. Применив формулу (*) к событию ВА, имеем: Р (ВА) = Р (В)-РВ(А). или (поскольку событие ВА не отличается от события А В) Р(АВ)= Р(В).РВ(А) Г) Сопоставляя формулы (•) и (**). заключаем о справедливости равенства Р{А).Рд(В)= Р(В)-РВ(А) (*•*) Следствие. Вероятность совместного появления несколь- нескольких зависимых событий равна произведению вероятности одного из них на условные вероятности всех остальных, причем вероятность каждого последующего события вы- вычисляется в предположении, что все предыдущие события уже появились: у где 1Ра,а, -. \ (Ап) — вероятность' события' Ап, вычис- вычисленная в предположении, что события Аи Аг, ..., Л„_, наступили. В частности, для трех зависимых событий будем иметь: Р(АВС)=Р(А)-Ра(В)-Рав (С)- Заметим, что порядок, в котором расположены события, может быть выбран любым, т. е. безразлично, какое собы- событие считать первым, вторым и т. д. Для произвольного п доказательство производится методом математической индукции. Пример 1. У сборщика имеется 3 конусных и 7 эллип- эллиптических валиков. Сборщик наудачу взял один валик, а злтем второй. Найти вероятность того, что первый из валиков — конусный, а второй — эллиптический. 33
Решение. Вероятность того, что первый из взятых валиков окажется конусным (событие А) Р {А) = — Вероятность того, что пторой нз валиков окажется эллип- эллиптическим (событие В), вычисленная в предположении, что первый валик — конусный, т. е. условная вероятность равна Искомая вероятность по теореме умножения вероят- вероятностей зависимых событий равна Р{А)Ра{В) Заметны, что сохранив обозначения, легко найдем =-^. Рв И)= ~, Р(В)-РЬ(А)=^, что наглядно иллюстрирует справедливость равенства (***). Пример 2. В урне находится 5 белых, 4 черных и 3 синих шара. Каждое испытание состоит в том, что наудачу извлекают один шар, не возвращая его в урну. Найти вероятность того, что при первом испытании появится белый шар (событие А), при втором — черный (событие В) и при третьем — синий (событие С). Решение. Вероятность появления белого шара при первом испытании Вероятность появления черного шара при втором испы- испытании, вычисленная в предположении, что при первом испы- испытании появился белый шар, т. с. условная вероятность Вероятность появления синего шара при третьем испы- испытании, вычисленная в предположении, что при первом ис- испытании появился белый шар, а при втором — черный 34 ¦и вероятность = Р (А) . р (В) I и м с ч а н и е 2. Выразим условную вероятность из соот- i miii >i пи (*) считая Р (А) Ф 0: Р (Д), Р{А) .)н) равенство можно принять в качестве определения условной и (Hill MIOCTH • It Д h Ч И 1. Вероятность того, что стрелок при одном выстреле попадает и мишень, равна р — 0,9. Стрелок произвел 3 выстрела. Найти ¦¦¦¦(.оитиость того, что все 3 выстрела дали попадание Отв. 0,729. 2. Брошены монета и игральная кость. Найти вероятность l имещения событий: «появился герб», «появилось 6 очков» Отв. -jTf 3. В двух ящиках находятся детали: в первом — 10 (из них I стандартных), во втором — 15 (из них 6 стандартных). Из каж- Лшо ящика наудачу вынимают по одной детали Найти вероятность ого, что обе детали окажутся стандартными. Отв 0,12. 4. В студии телевидения 3 телевизионных камеры Для каж- диП камеры вероятность того, что-она включена в данный момент, |>апиа р = 0,6. Найти вероятность тоги, что в данный момент вклю- ¦н-на хотя бы одна камера (событие А). Отв. 0,936 б. Чему равна вероятность того, что при бросании трех играль- игральных костей 6 очков пояиится хотя бы на одной из костей (событие А)} 91 Отв. gig. 6. Предприятие изготовляет 95% изделий стандартных, причем hi них 86% — первого сорта. Найти вероятность того что взятое iiiiyAiHiy изделие изготовленное на этом предприятии окажется пгриого сорта. Отв. 0,817 л Монета бросается до тех пор, пока 2 раза подряд она не вы II1Д1Т одной и той же стороной Найти вероятности следующих со '"илии: а) опыт окончится до шестого бросания: б) потребуется число бросаний 15 2 Отв a'i -щ-. б) -7J- 35
6. Из цифр 1, 2, 3, 4, б сначала выбирается одна, а затем из оставшихся четырех — вторая цифра. Предполагается, что все 20 возможных исходов равновероятны Найти вероятность того, что будет выбрана нечетная цифра: а) в первый раз; б) во второй раз; в) в оба раза 3 3 3 Отв. a) -j- , б) -д- , в) -ft В. Вероятность того, что прн одном выстреле стрелок попадет в десятку, равна 0,6. Сколько выстрелов должен сделать стрелок, чтобы с вероятностью не менее 0,8 ои попал в десятку хотя бы один раз? Отв. п > 2. 10. Три электрические лампочки последовательно включены в цепь. Вероятность того, что одна (любая) лампочка перегорит, если напряжение в сети превысит номинальное, равна 0,6. Найти вероятность того что при повышенном напряжении тока в цепн не будет Отв. 0,936 П. Вероятность того, что событие А появится хотя бы один раз прн двух независимых испытаниях, равна 0,75. Найти вероят- вероятность появления события в одном испытании (предполагается, что вероятность появления события в обоих испытаниях одна и та же). Отв 0,5. 12. Три команды А\, Аг, Аг спортивного общества А состяза- состязаются соответственно с тремя командами общества В. Вероятности того, что команды общества А выиграют матчи у команд общества В таковы: при встрече Ai с Bi — 0,8; At с Bt — 0,4; Аа с Ва — 0,4. Для победы необходимо выиграть не менее двух матчей из трех (ничьи во внимание ие принимаются). Победа какого из обществ вероятнее? Отв. Общества А (Р А = = 0,544 >~2") 13. Вероятность поражения цели первым стрелком при одном выстреле равна 0,8, а вторым стрелком — 0,6. Найти вероятность того, что цель будет поражена только одним стрелком Отв 0,44. 14. Из последовательности чисел I, 2, ... , л наудачу одно за другим выбираются два числа. Найти вероятность того, что одно из них меньше целого положительного числа k а другое боль- больше k. где I < k < п. Отв. 2(k-\)(n-k) п(п-\) Указание. Сделать допущения: а) первое число <k а второе >fe; б) первое число >k, а второе <k. 15. Отдел технического контроля проверяет изделия на стан дартиость. Вероятность того, что изделие нестандартно, равна 0,1 Найти вероятность того, что: а) из трех проверенных изделий толь- только одно окажется нестандартным; б) нестандартным окажется только четвертое по порядку проверенное изделие. Отв а) 0.243; б) 0,0729. ¦ и четвертая ИМДГТВИЯ ТЕОРЕМ СЛОЖЕНИЯ II МНОЖЕН ИЯ I Теорема сложения вероятностей м *стных событий Пчми была рассмотрена теорема сложения для несов- )¦ 1ных событии Здесь будет изложена теорема сложения !Н совместных событий. Дна события называют совместными, если появление >ч"ого из них не исключает появления другого в одном и шм же испытании. Пример. А — появление четырех очков при бросании in рлльной кости; В — появление четного числа очков. Оытия А и В — совместные. Пусть события А и В совместны, причем даны вероят- Ц|ктн этих событий и вероятность их совместного появле- г Как найти вероятность события А+В, состоящего в юм, чго появится хотя бы одно из событий А и В? Ответ in мот вопрос дает теорема сложения вероятностей сов- Mci'iiibix событий. Теорема. Вероятность появления хотя бы одного из 'овместных событий равна сумме вероятностей этих без вероятности их совместного появления Р(Л \-В)*= }\. о к .1 з а т о л ь о т в п. Поскольку события А и В ми yi1 numin coiiMi'i'iiii.!, 1ч> cortiuiip Л-\-В наступит, если и и-1у11иi 1)!|1Н) in I и ,'iyioiimx ijh'x несовместных событий: I/*, l/i или ЛИ Но u-opi'Mi- сложении вероятностей несов- ПЛ I П)-Р(А'В) + Р{АВ)+Р(АВ) Г) СоОыше А произойдет, если наступит одно из двух не событий: АВ или АВ. По теореме сложения несовместных событий имеем: Р(А)=Р(АВ)+Р{АВ). Р(АВ)=Р(А)—Р(АВ). (*•) Аналогично будем иметь: 37 геюда
P{B)=P(AB)+P(AB) Отсюда P(AB) = P{B)—P(AB). (•**) Подставив (**) и (***) в (*), окончательно получим: Р(А +В) = Р(Л) + Р(В)-Я(/Ш ( (****) Замечание I. При использовании полученной формулы следует иметь в виду, что события А и В могут бып- как независи мыми, так и зависимыми. Для независимых событий Р (А +- б) = Р (А + Р {В) - Р (А)-Р (В); для зависимых событий Р (Л + В) = Р (А\ + Р (В) ~ Р [А).РЛ(В) Замечание 2. Если события А и В несовместны, то их совмещение есть невозможное событие п. следовательно, Р (А В) =0 Формула (***•) для несовместных событий принимает вид- Р(А + В) = Р(А> + Р(В) Мы вновь получили теорему сложения для несовместных со бытии Таким образом, формула (****) справедлива как для сов- совместных, так и для несовместных событий Пример. Вероятности попадания в цель при стрельбе первого и второго орудии соответственно равны: р,=0,7; р2=0,8. Найти вероятность попадания при одном залпе (из обоих орудий) хотя бы одним из орудий. Решение. Вероятность попадания в цель каждым из орудий не зависит от результата стрельбы из другого орудия, поэтому события А (попадание первого орудия) и В (попадание второго орудия) независимы. Вероятность события АВ (оба орудия дали попадание) P(AB) = P(A)-P(B)=0J -0.8=0.56. Искомая вероятность )Р(А) + Р(В)—Р{А 0,7+0,8—0,56=0,94 Замечание. Так как в настоящем примере события А п В независимые, то можно было воспользоваться формулой Р = ¦= 1-«?1<72 (гл. III, § 3). В самом деле, вероятности событий, противоположных событи- событиям А и В, т. е. вероятности промахов такопьг <?2 1 — Р\ I ¦- pi = 1 - 0.7 = 1 —0,8 0,3; 0,2. 38 Hhhm и|'|>о)Ш10Сть того, что при одном чалпе хотя бы одно йи ы I ниц I'и и не. равна /' = 1 — <?i<?2 = I —0,3-0.2 = 0,94 \' и глсщнало ожидать, мы получили тот же результат. 1>н|1мул.1 полном вероятности Пущ. 1'о(">итпе А может наступить при условии появ- i пни о uiDio из несовместных событий б,, В2, ..., Вп, нн|1|.и пСфазуют полную группу. Пусть известны вероят- вероятней ш iих событий и условные вероятности PBl(A), f gl I). ... Рн„{А) события А. Как найти вероятность i.niiH Hi» Ответ на этот вопрос дает следующая теорема. I >| сма. Вероятность события А, которое может 1ч I цпить лишь при условии появления одного из несов- uiiiuns событий В,, В2, ..., Вп> образующих полную группу, i.i, ни сумме произведений вероятностей каждого из этих i vjmui't на соответствующую условную вероятность собы- t i 1 1(\) ПВ1).Ра1(А)+Р{В^РВг[А)+ ... +Р(Вп)-РИп (А) h ||и>рмулу называют «формулой полной вероятности». Доказательство. По условию событие А может и lymiib, если наступит одно из несовместных событий ,, If., Вп. Другими словами, появление события А пшач.к! осуществление одного, безразлично какого, из и i ииместиых событий BtA, ВгА, ..., В'пА. Пользуясь для •(¦¦пи-лоция вероятности события А теоремой сложения, in> iy>him * О'ысгся вычислить каждое из слагаемых. По теореме in i кенпи вероятностей зависимых событий имеем Р{В,А)=Р(В,)-РВ1{А); Р{В2А)= Р(А) Р{ВА) Р{В)-Р„п (А) По правые части этих равенств в соотношение ( ) пплучим формулу полной вероятности .РВп (А) Пример I. Имеется два набора детален. Вероятность п.т. чк) деталь первого набора стандартна, равна 0,8, а 39
второго — 0,9. Найти вероятность того, что взятая наудачу деталь (из наудачу взятого набора) — стандартная. Решение. Обозначим через А событие — извлечен- извлеченная деталь стандартна. Деталь может быть извлечена либо из первого набора (событие В,), либо из второго (событие В2). Вероятность того, что деталь будет вьшута из первого набора Вероятность того, что деталь будет вынута из второго набора Условная вероятность того, что из первого набора будет извлечена стандартная деталь Условная вероятность того, что из второго набора будет извлечена стандартная деталь Искомая вероятность того, что извлеченная наудачу деталь — стандартная по формуле полной вероятности равна {yi{){2) =0,5.0,8+0,5-0,9=0,85. Пример 2. В первой коробке содержится 20 радиоламп, из них 18 стандартных; во второй коробке — 10 ламп, из них 9 стандартных. Из второй коробки наудачу взята лампа и переложена в первую. Найти вероятность того, что лампа, наудачу извлеченная из первой коробки, будет стандартной. Решение. Обозначим через А событие — из первой коробки извлечена стандартная лампа. Из второй коробки могла быть извлечена либо стан- стандартная лампа (событие ?,), либо нестандартная (событие В2). Вероятность того, что из второй коробки извлечена стандартная лампа, 4П Ци|1им|11()сть гого, что из второй коробки извлечена не- лампа, Si 'hiiiii;ih вероятность того, что из первой коробки из- н I >iriM стандартная лампа, при условии, что из второй и первую была переложена стандартная лампа ЧИИ. ¦e. I"' 21 Уi- питая вероятность гого, что из первой коробки из в и-»»» nit 1'г.чпдартная лампа, при условии, что из второй и первую была переложена нестандартная лампа, Р (А) . в> 21 Hi-иимая вероятность гого, что из первой коробки будет » I 4i*ii.i стандартная лампа, по формуле полной вероят- III р ПНР /' (Вг) (А) + Р (В2) ¦ Рв t{A) - -1- • -?- 10 21 -0.9. Hi | on гность гипотез. I и |«* у |ы Ьейеса llyiu. 1-1)Г)ытие А может наступить при условии гюяв i мин плица) из несовместных событий Ви В2 Вп, • |'1»*,1 щпх полную группу. Поскольку заранее нензвесг- п mi и- ц.1 этих событий наступит, их называют гипоте- \чч Ц|-[10нт!1ость появления события А определяется hi i рмул полной вероятности (§ 2): (*) + Р{Вп).Рвя(А) liiiyi him. что произведено испытание, в результате iи|>|><и it пияпилось событие А. Поставим своей задачей •¦!¦ t lint, KdK изменились (в связи с тем, что событие А 41
уже наступило) вероятности гипотез. Другими словами, будем искать условные вероятности РЛ{В,), РА(В2) Ра{Вп). Найдем сначала условную вероятность P/\(Bi). По тео- теореме умножения имеем PAB)P{A) Отсюда г (Л) Заменив здесь Р{А) по формуле (*), получим ('¦') Р (е,)-Рв| (А) + Р (B2)-PBt (Л) + ¦.. 4 Р i (/1) Аналогично выводятся формулы, определяющие услов- условные вероятности остальных гипотез, т. е. условная вероят- вероятность любой гипотезы Bt [i—\, 2, ..., п) может быть вычис- вычислена по формуле В: P(Bi)-PBt{A) +P(B2)-РВг (/1)+...+ . (А) Полученные формулы называют формулами Бейеса (по имени английского математика, который их вывел; опубликованы в 1764 г.). Формулы Бейеса по- позволяют переоценить вероятности гипотез после того, как становится известным результат испытания, в итоге которого появилось событие Л. Пример. Детали, изготовляемые цехом завода, попа- попадают для проверки их на стандартность к одному из двух контролеров. Вероятность того, что деталь попадает к пер- первому контролеру, равна 0,6, а ко второму — 0,4. Вероят иость того, что годная деталь будет признана стандартной первым контролером, равна 0,94, а вторым — 0,98. Годная деталь при проверке была признана стандартной. Найти вероятность того, что эту деталь проверил первый кон- контролер. Реше и и е. Обозначим через А событие, состоящее и том, что годная деталь признана стандартной. Можно сде- сделать два предположения: 1) деталь проверил первый контролер (пшотеза fi|); 2) деталь проверил второй контролер (гипотеза fig). 42 II смую вероятность того, что деталь проверил первый 1-м I'D'i'p, найдем по формуле Бейеса Р (Щ ¦ PBi (Л) По условию задачи имеем: ( I,) ().() (вероятность того, что деталь попадет к пер- первому контролеру); tVI I—O.'l (вероятность того, что деталь попадет ко второму контролеру); „д 1)мО,94 (вероятность того, что годная деталь будет признана первым контролером стандартной); «A) 0,98 (вероятность того, что годная деталь будет признана вторым контролером стандартной). Искомая вероятность 0,6- 0,94 0,6- 0.94 + 0,4 ¦ 0.98 :0.59 Кик 1ШДП0, до испытания вероятность гипотезы Bt рав- ии i in, 0,6, а после того, как стал известен результат испы i шин, 1>ероятность этой гипотезы (точнее, условная ве- верши иметь) изменилась и стала равной 0,59. Таким образом, in in милование формулы Бейеса позволило переоценить Гриш кость рассматриваемой гипотезы. i й Ч И Лип стрелка произвели по одному выстрелу. Вероятность n мишень первым стрелком равна 0,7, а вторым —0.6 I Ml in пероятность того чте хотя бы однн из стрелков попал в Hllll III От. 0,88. В. V а'орщика имеется 16 деталей, изготовленных заводом № 1, и ц i 1лн завода № 2. Наудачу взяты 2 детали. Найти вероятность ¦«•¦ft II хотя бы одна из ннх окажется изготовленной заводом № I. 92 Отв -gjr-. i И группе спортсменов 20 лыжников, 6 велосипедистов и I i ivii» Вероятность выполнить квалификационную норму тако fi in лыжника 0,9, для велосипедиста 0,8 и для бегуна 0,75 IriHiu 1м-|111игность того что спортсмен выбранный наудачу пы IIHllllll ||A|1МУ Отв. 0,86 1, ('Листик получил 3 коробки деталей, изготовленных заво i № I, II 2 коробки деталей, изготовленных заводом ЛЪ 2. Веро- Hi и го что деталь заводе -\Ъ 1 стандартна равна 0,8. а за- 43
вода № 2 — 0.9. Сборщик наудачу извлек деталь из наудачу взя- взятой коробки Найти вероятность того что нзплечена стандартная цетал ь Отв 0,84 5. В первом ящике содержится 20 деталей из них 15 стандарт- стандартных; во втором — 30 деталей, из них 24 стандартных; в третьем — 10 деталей, нэ них 6 стандартных. Найти вероятность того что на- наудачу извлеченная деталь из наудачу взятого ящика — стандарт- стандартная Отв -gg- 6. В телевизионном ателье имеется 4 кинескопа. Вероятности того, что кинескоп выдержит гарантийный срок службы, соответст- соответственно равны 0,8; 0,85; 0,9; 0,95. Найти вероятность того, что взя- взятый наудачу кинескоп выдержит гарантийный срок службы. Отв. 0.875. 7. В дпух ящиках имеются радиолампы В первом ящике со- содержится 12 ламп, из них I нестандартная; во втором 10 ламп, из них I нестандартная. Из первого ящика наудачу взята лампа и переложена во второй. Найти вероятность того, что наудачу из влеченная из второго ящика лампа будет нестандартной. 13 Отв. -J32 8. Из полного набора 28 костей домино наудачу извлечена кость. Найти вероятность того, что вторую извлеченную наудачу кость можно приставить н первой. 9. Студент знает не все экзаменационные билеты. В каком случае вероятность вытащить неизвестный билет будет для него наименьшей когда он берет билет первым или последним? Отв Вероятности одннако вы в обоих случаях 10. В ящик содержащий 3 одинаковых детали, брошена стан дартная деталь, а затем наудачу извлечена одна деталь Найти вероятность того, что извлечена стандартная деталь, если равно- равновероятны все возможные предположения о числе стандартных де- деталей первоначально находившихся в ящике Ото 0.625. It. При отклонении от нормального режима работы автомата срабатывает сигнализатор СА с вероятностью 0,8, а сигнализатор С-М срабатываете вероятностью I Вероятности того что автомат снабжен сигнализатором С-\ или C-II соответственно равны 0,6 и 0,4. Получен сигнал о разладке автомата Что вероятнее: автомат снабжен сигнализатором C-I или CA\i Отв. Вероятность того, что авто мат снабжен сигнализатором СА равна -jj & САI — -гт-. 12. Для участия в студенческих отборочных спортивных со- репнованмях выделено из первой группы курса — 4, из второй —б, из третьей группы — 5 студентов. Вероятности того, что студент 44 цервой, второй и третьей группы попадет в сборную института, имнветственио равны 0,9; 0,7; н 0,8. Наудачу выбранный студент И итоге соревнования попал в сборную. К какой из групп иероят- н -с всего принадлежал этот студент? Отв. Вероятности того, что выбран сту- студент первой второй, третьей групп 18 21 20 соответственно равны: -gg- ~gg~. "jjjp 13. Вероятность дня изделий некоторого производства удов- i -творить стандарту равна 0,96. Предлагается упрощенная система проверки на стандартность, дающая положительный результат с вероятностью 0,98 для изделии, удовлетворяющих стандарту, а для изделий, которые не удовлетворяют стандарту, с вероятностью 0.05 Найти вероятность того, что изделие, признанное при провер- проверке стандартным действительно удовлетворяет стандарту. Отв 0,998. Глава пятая ПОВТОРЕНИЕ ИСПЫТАНИЙ в I. Формула Бернулли Если производится несколько испытаний, причем ве- вероятность события А в каждом испытании не зависит от исходов других испытаний, то такие испытания называют нсювисимыми относительно события А. В разных независимых испытаниях событие А может иметь либо различные вероятности, либо одну и ту же ве- |и»1Т1юсть Мы будем далее рассматривать лишь такие не- шшенмые испытания, в которых событие А имеет одну и гу же вероятность. Ниже мы воспользуемся понятием сложного события, понимая под ним совмещение нескольких отдельных собы- iiifi, которые называют простыми. Пусть производится п независимых испытании, в каж- н>м из которых событие А может появиться либо не иоя- нгься. Будем считать, что вероятность события 1 в каждом in питании одна и та же, а именно равна р. Следовательно, iu-роятиость ненаступления события А в каждом испытании 11кжс постоянна и равна q—\—p. Поставим своей задачей вычислить вероятность того, •пи при п испытаниях событие А осуществится ровно к |i/»-i и, следовательно, не осуществится п—k раз. Нужно подчеркнуть, что не требуется, чтобы событие А шппирнлось ровно k раз в опреяеленнон последователь- последовательна, in Например, если речь идет о появлении события А 45
три раза в четырех испытаниях, то возможны следующие сложные события: _ _ АААА, АААА, АААА к АЛЛА. Запись АААА означает, что в первом, втором и третьем испытаниях событие А наступило, а в четвертом испытании оно не появилось, т. е. наступило противоположное собы- событие Л; соответственный смысл имеют и другие записи Искомую вероятность обозначим Р,,(/г) Например, сим- символ Р5C) означает вероятность того, что в пяти испытаниях событие появится ровно 3 раза п. следовательно, не насту- наступит 2 раза. Поставленную задачу решает так называемая формула Бернулли. Вывод формулы Бернулли. Вероятность одного сложного события, состоящего в том, что в п испытаниях событие А наступит k раз и не наступит п—k раз, по теореме умноже- умножения вероятностен независимых событий, равна Таких сложных событий может быть столько, сколько можно составить сочетаний из п элементов по k элементов, т. е. С*. Так как эти сложные события несовместны, то по теореме сложения вероятностен несовместных событий искомая вероятность равна сумме вероятностей всех воз можных сложных событий. Поскольку же вероятности всех этих сложных событий одинаковы, то искомая вероят ность (появления k раз события А в п испытаниях) равна вероятности одного сложного события, умноженной на их число: или п\ ft! (л - ft) ' Полученную формулу называют формулой Г>ермуллн. Пример. Вероятность того, что расход электроэнергии на продолжении одних суток не превысит установленной нормы, равна р=0,75. Найти вероятность тою, что в бли жайшне 6 суток расход электроэнергии в течение 4 су тон не превысит нормы. Решение. Вероятность нормального расхода элек- электроэнергии на продолжении каждых из 6 суток постоянна 46 и равна р= 0,75. Следовательно, вероятность перерасхода эаектроэпергнн в каждые сутки также постоянна и равна G=1—^=1—0,75=0,25. Искомая вероятность по формуле Бернулли равна @,75)* • @,25)г = 0.30. • 2 § 2. Локальная теорема Лапласа Выше мы вывели формулу Ьернуллн, позволяющую вы- вычислить вероятность того, что событие появится в п испы- испытаниях ровно k раз. При выводе мы предполагали, что вероятность появления события в каждом испытании по- постоянна. Легко видеть, что пользоваться формулой Бернулли при больших значениях п достаточно трудно, так как формула требует выполнения действий над громадными числами. Например, если «=50, &-30, р=0,1, то цлн отыскания вероятности Р5о(ЗО) надо вычислить выражение з(^ооГ @.1Kо-@,9)-°, где 50! = 30 414 093- 10й, 30!=26 525*286- 10й. 20! = 24 329 020-10". Правда, можно неска1ько упростить вычисления, пользуясь специальными таблицами логарифмов факториалов. Однако и этот путь остается громоздким и, к тому же, имеет существенный не- недостаток: таблицы содержат приближенные значении лога- логарифмов, поэтому в процессе вычислений накапливаются погрешности; в итоге окончательный результат может зна- значительно отличаться от истинного." Естественно возникает вопрос: нельзя ли вычислить интересующую нас вероятность, не прибегая к формуле Бернулли? Оказывается, можно. Локальная теорема Лап- Лапласа н дает асимптотическую* формулу, которая позволяет приближенно найти вероятность появления события ровно k раз в п испытаниях, если число испытании достаточно велико. Заметим, что для частного случая, а именно для р= у, асимптотическая формула была найдена в 1730 г. Муав- * Функцию 9 (*) называют асимптотическим приближением функ- / (*) шш f (х), если lim = 1. *-« 9 I*) 47
ром; в 1783 г. Лаплас обобщил формулу Муавра для произ- произвольного р, отличного от 0 и 1. Поэтому теорему, о которой здесь идет речь, иногда называют теоремой Му- Муавра—Лапласа. Доказательство локальной теоремы Лапласа довольно сложно, поэтому мы приведем лишь формулировку теоремы и примеры, иллюстрирующие ее использование. Локальная теорема Лапласа. Если вероятность р появления события А в каждом испытании постоянна и отлична от нуля и единицы, то вероятность Pn(k) того, что событие А появится в п испытаниях ровно k раз, приближенно равна (тем точнее, чем больше п) значению функции прд 1 2 _ [ Vnpq Имеются таблицы, в которых помещены значения функ- ции ф (а;) = —— V соответствующие положительным значениям аргумента х (приложение 1). Для отрицательных значений аргумента пользуются теми же таблицами, так как функция ф (х) четна, т. е. ф (— х) = ф (х). Итак, вероятность того, что событие А появится в п независимых испытаниях ровно к раз, приближенно равна ^ • ф (X) к — пр где х = н У прд Пример I. Найти вероятность того, что событие А на- наступит ровно 80 раз в 400 испытаниях, если вероятность появления этого события в каждом испытании равна 0,2. Решение. По условию п=400; к=Ш, р=0,2; q= =0,8. Воспользуемся асимптотической формулой Лап- Лапласа: п ,(80)« ._ ' <D(*)=-L. ц-(х). 1^400.0,2-0,8 48 Вычислим определяемое данными задачи значение г. = 80-400-0,2 = 0 8 По таблице (приложение 1) находим 'f@)=0,3989. Искомая вероятность Рт(Щ = -—0,3989=0,04986. Формула Бернуллн приводит примерно к такому же ре- результату (выкладки, ввиду их громоздкости, опущены): РаОо(80)=0,0498. Пример 2. Вероятность поражения мишени стрелком при одном выстреле р=0,75. Найти вероятность того, что при 10 выстрелах стрелок поразит мишень 8 раз. Решение. По условию л=10; k=S; p=0,75; q= =0,25. Воспользуемся асимптотической формулой Лапла- Лапласа: ф = 0.7301 • ф (х). У 10-0,75.0,25 Вычислим определяемое данными задачи значение х: к = k-np = 8-10-0,75 ^ 0 36 —; 10 • 0.75 • 0.25 прд По таблице (приложение I) находим <f@,36)=0,3739. Искомая вероятность /',„(«) DJ301-0,3739=0,273. •I'i>l>MY.'iii I>f|>iiy.'Uiп 11|>111кп,1|[ к иному результату, а iiMi-iiiiii /',„(Н) О.2К2. Сголь значительное расхождение niiiiMMii оСц.ясинегся гем, что в настоящем примере п имеет м нос значение (формула Лапласа даст достаточно хорошие приближения лишь при достаточно Гюлмппх значениях п). § 'Л. Интегральная теорема Лапласа Инопь предположим, что производится п испытаний, в каждом из которых вероятность появления события А по- сюпппа и равна р@<р<1). Как вычислить вероятность ''«(^'i. ^г)> тог°. чт0 событие Л появится в п испытаниях не менее &, и не более k2 раз (для краткости будем говорить 49
«от ki до k2 раз»)? На этот вопрос отвечает интегральная теорема Лапласа, которую мы приводим ниже, опустив доказательство. Теорема. Если вероятность р наступления события А в каждом испытании постоянна и отлична от нуля и еди- единицы, то вероятность P,,(klt k.>) того, что событие А появится в п испытаниях от ky до k» раз, приближенно равна определенному интегралу dz. (*) где „ К" = при При решении задач, требующих применения интеграль- интегральной теоремы Лапласа, пользуются специальными таблицами, так как неопределенный интеграл \е 2 dz не выражает- выражается через элементарные функции. Таблица для интеграла Ф (х) = —— С г ?Х о e 2 dz приведена в конце книги (приложе- нне 2). В таблице даны значения функции Ф(х) для поло- положительных значении х и для v = 0; для д:<,0 пользуются той же таблицей (функция Ф(л) нечетна, т. е. Ф (—х) = = — Ф(х). В таблице приведены значения интеграла лишь до х—Ъ, так как для г>5 можно принять Ф(х)=0,5. Функцию Ф(х) часто называют функцией Лапласа. Для тою чтобы можно было пользоваться таблицей функции Лапласа, преобразуем соотношение (*) так: 1 2г. J -¦¦ и Г 2* 6' ) 2, J = Ф [х") — Ф (х') Итак, вероятность того, что событие 1 появится в п 50 1И--1.111НС11МЫХ испытаниях от fcj до k2 раз ^ Ф (*") - Л'1 ,, __ Приведем примеры, иллюстрирующие применение ин- и [ |1.1лыюй теоремы Лапласа. Пример. Вероятность того, что деталь не прошла про in рку ОТК, равна р=0,2. Найти вероятность того, что р»1 in 400 случайно отобранных детален окажется неиро- пгрснных от 70 до 100 деталей. I* с цр е н н е. По условию р—0,2; q=O,S; n=400; Л, 70; /гг=100. Воспользуемся интегральной теоремой Лапласа. Р400G0, 100) ж Ф(х")- Ф(х'). П|.1чмслпм нижний и верхний пределы интегрирования: fe!-»p = 70-400 0,2 V ~np~Q ' V 400 • 0,2 • 0,8 ft2 - пр 100-400- 0,2 V 400 • 0.2 - 0,8 = - 1.25; = 2,5 Y'npq I i к им образом имеем /¦ „„G0, 100) = ФB,5) -,Ф ( - 1,25) = ФB,5) + ФA,25). Пи 1аблице (приложение 2) находим ФB,5)=0,4938; ФA,25)=0,3944 Игкнмая вероятность Р400G0, 100)=0,4938+0,3944=0,8882. J а м е ч а н и е. Обозначим через т число появлений события »1>и п независимых испытаниях, в каждом из которых вероят- in» м. иступленпя события А постоянна и равна р Если число т т — пр ши-тся от fe, до k2i то дробь —^^т~ будет изменяться от У *, — пр , — "Р Vnpq Следовательно, интегральную •|н-му Лапллса можно записать и так т — пр \ dz. i Ч\ >|»>|1му записи мы используем ниже
§ 4. Вероятность отклонения относительной частоты от постоянной вероятности в независимых испытаниях Вновь будем считать, что производится п независимых испытаний, в каждом из которых вероятность появления события А постоянна и равна р(СКр<1). Поставим своей задачей найти вероятность того, что отклонение относитель- относительной частоты — от постоянной вероятности р по абсолют- абсолютной величине не превышает заданного числа е>0. Други- Другими словами, найдем вероятность осуществления неравен- неравенства " I - п Эту вероятность будем обозначать так: Р( — р <е) Заменим неравенство (*) ему равносильными: т — пр . _ — р<е, ИЛИ — Умножая эти неравенства на положительный множитель 1 / -^-, получим неравенства, равносильные исходному: PQ т— пр Vnpl~ Воспользуемся интегральной теоремой Лапласа в фор- форме, указанной в замечании (стр. 51). Положив = -е У w х"= ik*имеем: г рд РЯ е dz = е dz = 2Ф (е Vik)- 52 Наконец, заменив неравенства, заключенные в скобках, равносильным им исходным неравенством, окончательно получим: Итак, вероятность осуществления неравенства приближенно равна значению удвоенной функции Лапла- Лапласа 2Ф (х) при х=е 1 / — . ? Пример I. Вероятность того, что деталь не стандартна, /»=0,1. Найти вероятность того, что среди случайно отоб- отобранных 400 деталей относительная частота появления не- нестандартных деталей отклонится от вероятности р=0,1 по абсолютной величине не более, чем на 0,03. Решение. По условию и=400; р=0,1; 9=0,9; е= -0,03. Требуется найти вероятность Р т Too" -0.1 <о.оз). Пользуясь формулой Р ( -^- — р < е) « 2Ф (е |/ ^- \ имеем: Р (| ^ - 0.1 < О.оз ) « 2Ф ( 0. 03 - 2Ф B). По таблице (приложение 2) находим ФB)=0,4772. Сле- «|>пг1тельно, 2Ф B)=0,9544. Итак, искомая вероятность приближенно равна 0,9544. Смысл полученного результата таков: если взять доста- iu'iho большое число проб по 400 деталей в каждой, то примерно в 95,44% этих проб отклонение относительной м'готы от постоянной вероятности р=0,1 по абсолютной игпишне не превысит 0,03. Пример 2. Вероятность того, что деталь не стандартна, »—(»,!. Найти, сколько деталей надо отобрать, чтобы с |н|иш1ностыо равной 0,9544 можно было утверждать, что 63
относительная частота появления нестандартных деталей (среди отобранных) отклонится от постоянной вероятнос- вероятности р по абсолютной величине не более, чем на 0,03. Решение. По условию р=0,1; <7=О,9; е=0,03; р т~ол Требуется найти п. ; о.оз \ = о, ,9544. Воспользуемся формулой Р ( \ —— :2ф(е l/Z) \ ' PQJ В силу условия, 2Ф fo.03 -ш ! п ) = 2Ф @.1 \ у 0.1. 0.9 ) 0,9544. Следовательно, ФфМ^п)=0,4772. По таблице (приложение 2) находим Ф B)=0,4772. Для отыскания числа п получаем уравнение Отсюда искомое число деталей «=400. Смысл полученного результата таков: если взять дос- достаточно большое число проб по 400 деталей, го в 95. 44% этих проб относительная частота появления нестандартных деталей будет отличаться от постоянной вероятности р= =0,1 по абсолютной величине не более, чем на 0,03, т. е. относительная частота будет заключена в границах от 0,07 @,1—0,03=0,07) до 0,13 @,1 10,03=0,13). Другими словами, число нестандартных деталей в 95,44% проб будет заключено от 28 G% от 400) до 52 A39и от 400). Если взять лишь одну пробу из 400 деталей, то с боль шой уверенностью можно ожидать, что в этой пробе будет нестандартных деталей не менее 28 и не более Г>2. Возмож- Возможно, хотя и маловероятно, что нестандартных деталей ока- жегся меньше 28, либо больше 52. 54 Задачи 1. В цехе 6 мотороп. Для каждого мотора пероятность того что он в данный момент включен, равна 0,8. Найти вероятность того, что в данный момент: а) включено 4 мотора, б) включены все моторы, в) выключены все моторы Отв а) Р„D) = 0,246; б) Р„F) = 0,26; в) Рв@) = 0.000064. 2. Найти вероятность того, что событие А появится в пяти не- независимых испытаниях не менее двух раз, если в каждом испытании вероятность появления события А равна 0,3. Отв. Р = 1 -|Р&@) + + Р6AI = 0,472 3. Событие В появится в случае, если событие А появится не менее дпух раз. Найти вероятность того, что наступит событие В, если будет произведено 6 независимых испытаний, в каждом из которых вероятность появления события А равна 0,4. Отв. Р = I - [Р„@) + + РвAI = 0 767. 4. Произведено 8 независимых испытании, в каждом из кото- которых вероятность появления события А равна 0,1 Найти вероят- вероятность того, что событие А появится хотя бы 2 раза. Отв Р = 1 - |Р„@) + + Р„A)] = 0.19. Ь. Монету бросают 6 раз Найти вероятност того что герб выпадет: а) менее двух раз, б) не менее двух раз. Отв. а) Р = Р„@) + б) Q= 1- 1г 6. Вероятность попадания в цель при одном выстреле из ору- орудия р = 0.9. Вероятность поражения цели при k попаданиях (fe>l) равна I—qfc Найти пероятность того, что цель будет поражена, если сделано 2 выстрела. Указание Воспользоваться формулами Бсрнулли н полной вероятности Отв 0.9639. 7. Найти приближенно вероятность того что при 400 испыта- испытаниях событие наступит ровно 104 раза если вероятность его появ ления в каждом испытании равна 0.2 Отв Р40»A04) = 0,0006 8. Вероятность поражения мишени стрелком при одном вы- выстреле равна 0,75 Найти вероятность того, что при 100 выстрелах мишень будет поражена: а) не менее 70 н не более 80 раз. б) не 70 раз. Oms а) РшG0. 80) = = 2ФA.15) = 0,7498; б) Р|в0@; 70) = = — ФA.15) + 0,5 = = 0.1251 55
9. Вероятность появления события в каждом нз 10 000 незави- независимых испытаний р = 0,75. Найти вероятность того, что относи- относительная частота появления события отклонится от его вероятности по абсолютной величине не более, чем на 0,001. Отв. Р = 2Ф@,23) =» = 0,182. 10. Вероятность появления события в каждом нз независимых испытаний равна 0,2. Найти, какое отклонение относительной час- частоты появления события от его вероятности можно ожидать с ве- вероятностью 0,9128 прн 6000 испытаниях. Отв. t = 0,00967. П. Сколько раз надо бросить монету, чтобы с вероятностью 0,6 можно было ожидать, что отклонение относительной частоты появле- появлений герба от вероятности р = 0.5 окажется по абсолютной величине не более 0,01? Отв. п = 1764. Часть вторая СЛУЧАЙНЫЕ ВЕЛИЧИНЫ Глава шестая ВИДЫ СЛУЧАЙНЫХ ВЕЛИЧИН. ЗАДАНИЕ ДИСКРЕТНОЙ СЛУЧАЙНОЙ ВЕЛИЧИНЫ § I. Случайная величина Уже в первой части приводились события, состоящие в появлении того или иного числа. Например, при бро- бросании игральной кости могли появиться числа 1, 2, 3, 4, 5 и 6. Наперед определить число выпавших очков невоз- невозможно, поскольку оно зависит от многих случайных при- причин, которые полностью не могут быть учтены. В этом смысле число очков есть величина случайная; числа I, 2, 3, 4, 5 и 6 есть возможные значения этой величины. Случайной называют величину, которая в результате испытания примет одно и только одно возможное значение, наперед неизвестное и зависящее от случайных причин, которые заранее не могут быть учтены. Пример I. Число родившихся мальчиков среди ста новорожденных есть случайная величина, которая имеет ледующие возможные значения: 0, 1, 2 100. Пример 2. Расстояние, которое пролетит снаряд прн нистреле из орудия, есть случайная величина. Действитель- Действительно, расстояние зависит не только от установки прицела, i о и от многих других причин (силы и направления ветра, н-мпературы и т. д.), которые не могут быть полностью учт'пы. Возможные значения этой величины принадлежат ш которому промежутку (а, Ь). Мы будем далее обозначать случайные величины про- нищими буквами X, Y, Z, а их возможные значения — 57
соответствующими строчными буквами х, у, z. Например, если случайная величина X имеет три возможных значе- значения, то они будут обозначены так: xlt хг, х3. § 2. Дискретные и непрерывные случайные величины Вернемся к примерам, приведенным выше. В первом из них случайная величина X могла принять одно нз сле- следующих возможных значений: 0, 1,2, .... 100. Эти значе- значения отделены одно от другого промежутками, в которых нет возможных значений X. Таким образом, в этом примере случайная величина принимает отдельные, изолированные возможные значения. Во втором примере случайная величина могла принять любое из значении промежутка (а, Ь). Здесь нельзя отде- отделить одно возможное значение от другого промежутком, не содержащим возможных значений случайной величины. Уже из сказанного можно заключить о целесообразности различать случайные величины, принимающие лишь от- отдельные, изолированные значения и случайные величины, возможные значения которых сплошь заполняют некоторый промежуток. Дискретной (прерывной) называют случайную вели чину, которая принимает отдельные, изолированные воз- возможные значения с определенными вероятностями. Число возможных значений дискретной случайной величины мо- может быть конечным или бесконечным. Непрерывной называют случайную величину, которая может принимать все значения из некоторого конечного или бесконечного промежутка. Очевидно, число воз- возможных значений непрерывной случайной величины — бесконечно. Замечание. 11астоящее определение непрерывной случайной величины не является точным. Более строгой спрзделеиие будет дано подднее § 3. Закон распределения вероятностей дискретной случайной величины На первый взгляд может показаться, что для задания дискретной случайной величины достаточно перечислить все ее возможные значения. В действительности это не так: случайные величины могут иметь одинаковые перечни возможных значений, а вероятности их — р а з- личные. Поэтому для задания дискретной случайной величины недостаточно перечислить все возможные ее значения, нужно еще указать их вероятности. Законом распределения дискретной случайной величины называют соответствие между возможными значениями и их вероятностями; его можно задать таблично, аналити- аналитически (в виде формулы) и графически. При табличном задании закона распределения дискрет- дискретной случайной величины первая строка таблицы содержит возможные значения, а вторая — их вероятности: X *, х2... хп р р^ р2... р„. Приняв во внимание, что в одном испытании случайная величина принимает одно и только одно возможное значе- значение, заключаем, что события X=xL, X=x2 Х=хп образуют полную группу; следовательно, сумма вероят- вероятностей этих событий, т. е. сумма вероятностей второй строки таблицы равна единице: Пример. В денежной лотерее выпущено 100 билетов. Разыгрывается один выигрыш в 50 руб. и десять выигры- выигрышей по 1 руб. Найти закон распределения случайной величины X — стоимости возможного выигрыша для вла- владельца одного лотерейного билета. Решение. Напишем возможные значения X: Х!=50, х2=1, х3=0. Вероятности этих возможных значений таковы: Р,=0,01, р2=0,1, р3=1—(Pi+p2)=0,89. Напишем искомый закон распределения: X 50 р 0,01 10 0 0.1 0.89 Контроль: 0,01+0,1+0,89=1. В целях наглядности закон распределения дискретной 'лучинной величины можно изобразить и графически, для чгго п прямоугольной системе координат строят точки (»,, р,), а затем соединяют их отрезками прямых. Получен- Полученную фигуру называют многоугольником распределения. 59
§ 4. Биноминальное распределение Пусть производится п независимых испытаний, в каж- каждом из которых событие А может появиться, либо не поя- появиться. Вероятность наступления события во всех испы- испытаниях постоянна и равна р (следовательно, вероятность непояа!ения q=\—p). Рассмотрим в качестве дискретной случайной величины X число появлений события А в этих испытаниях. Поставим перед собой задачу: найти закон распреде- распределения величины X. Для ее решения требуется определить возможные значения X и их вероятности. Очевидно, событие А в п испытаниях может либо не поя- появиться, либо появиться 1 раз, либо 2 раза либо п раз. Таким образом, возможные значения X таковы: Остается найти вероятности этих возможных.значений, для чего достаточно воспользоваться формулой Бернулли: Рп (k) = С*р*<?я"*. (*) где k=0, 1, 2 п. Формула (*) и является аналитическим выражением искомого закона распределения. t Биноминальным называют распределение вероятнос- вероятностей, определяемое формулой Бернулли. Закон назван «биноминальным» потому, что правую часть равенства (*) можно рассматривать как общий член разложения бинома Ньютона ф + д)» = С"п /У 4- Cnn'lpn-lq + C*np*<f-*+ • Таким образом, первый член разложения р" опреде- определяет вероятность наступления рассматриваемого события п раз в п независимых испытаниях; второй член np"~lq определяет вероятность наступления события п—1 раз; ...; последний член qn определяет вероятность того, что событие не появится ни разу. Напишем биноминальный закон в виде таблицы: п — 1 О Р (f np"-lq ... С?ру-* ... q". Пример. Монета брошена 2 раза. Написать в виде та- таблицы закон распределения случайной величины X — числа выпадений герба. I* t< in с н и е. Вероятность появления герба в каждом ниш монеты /э=4~» следовательно, вероятность не- 4 - . I 1 цояи 1С1ШЯ герба <7=1 2~=~Т' 2Т При двух бросаниях монеты герб может появиться либо 2 раза, либо 1 раз, либо совсем не появиться. Та- Таким образом, возможные значения X таковы: *i=2, а;2=1, х3=0. Найдем вероятности этих возможных значений по фор- формуле Бернулли: = 2--i- --1- = 0.5. Напишем искомый закон распределения: X 2 1 0 р 0,25 0.5 0.25. Контроль: 0,25+0,5+0,25=1. § 5. Распределение Пуассона Пусть производится п независимых испытаний, в каж- каждом из которых вероятность появления события А равна р. Для определения вероятности k появлений события в этих испытаниях используют формулу Бернулли. Если же п велико, то пользуются асимптотической формулой Лапласа. Однако, эта формула непригодна, если вероят- вероятность события мала (р<0,1). В этих случаях (п велико, р мало) прибегают к асимптотической формуле Пуассона. Итак, поставим своей задачей найти вероятность того, что при очень большом числе испытаний, в каждом из которых вероятность события очень мала, событие насту- наступит ровно k раз. Сделаем важное допущение: произведение пр сохраняет постоянное значение, а именно пр=У.. Как будет следовать из дальнейшего (гл. VII, §5) это означает, что среднее число появлений события в различных сериях испытаний, т. е. при различных значениях п, остается неизменным.
Воспользуемся формулой Бернулли для вычисления интересующей нас вероятности: Р. (ft) = ft1 Так как рп='к, то /?=—. Следовательно, Приняв во внимание, что п имеет очень большое зна- значение, вместо Pn(k) найдем \in\Pn(k). При этом будет найдено лишь приближенное значение отыскиваемой ве- вероятности: п хотя и вечико, но конечно, а при отыскании предааа мы устремим л к бесконечности. Итак, ft' !Г\ = — lim 1 ) - Inn 11 ) = П I J 41 п,ю\ П I n-*oo \ П j Итак (для простоты записи знак приближенного ра- равенства опущен), Эта формула выражает закон распределения Пуассона вероятностен массовых (п велико) редких (р мало) событий. Замечание. Имеются специальные таблицы пользуясь которыми можно найти Рп{к) зная к и А. Пример. Завод отправил на базу 5000 доброкачествен- доброкачественных изданий. Вероятность того, что в пути изделие повре- повредится, равна 0,0002. Найти вероятность того, что па базу прибудут 3 негодных изделия. Решение. По условию rt=5000, />=0,0002, k= =3. Найдем К: Х= пр=5000 • 0,0002 = I 62 Искомая вероятность по формуле Пуассона приближен- приближенно равна § 6. Простейший поток событий Рассмотрим события, которые наступают в случайные моменты времени. Потоком событий называют последовательность собы- событий, которые наступают в случайные моменты времени. Примерами потоков могут служить: поступление вызовов на АТС, на пункт неотложной медицинской помощи, при- прибытие самолетов в аэропорт, клиентов на предприятие бы- бытового обслуживания, последовательность отказов эле- элементов и многие другие. Среди CBoiicTB, которыми могут обладать потоки, вы- выделим свойства стационарности, отсутствия последействия и ординарности. Свойство стационарности характеризуется тем, что вероятность появления k событий па любом промежутке времени зависит только от числа k н от длительности t промежутка п не зависит от начала его отсчета; при этом различные промежутки времени предполагаются непере- непересекающимися. Например, вероятности появления k собы- событий на промежутках времени A; 7), A0; 16), (Г-г6) одина- одинаковой длительности /=6 единицам времени, равны между собой. Итак, если поток обладает свойством стационарности, то вероятность по- появления k событий за промежуток вре- времени длительности / есть функция, а в и с я in а я только о т ft и /. Свойство «отсутствия последействия» характерпзуег- «41 тем, что вероятность появления /г событий на любом промежутке времени не зависит от того, появлялись или и • появлялись события в моменты времени, предшествующие и 1ч;шу рассматриваемого промежутка. Другими словами, ) чопная вероятность появления k событий па любом про- гжутке времени, вычисленная при любых предположе- предположениях о том, что происходило до начала рассматриваемого промежутка (сколько событий появилось, в какой последо- • и'Лыюсти), равна безусловной вероятности. Таким об- 63
разом, предыстория потока не сказывается на вероятности появления событий в ближайшем будущем. Итак, если поток обладает свойством отсутствия последействия, то имеет место взаимная независимость по- появлений того или иного числа собы- событий в непересекающиеся промежут- промежутки времени. Свойство ординарности характеризуется тем, что появ- появление двух и более событий за малый промежуток времени практически невозможно. Другими словами, вероятность появления более одного события за малый промежуток времени пренебрежимо мала по сравнению с вероятностью появления только одного события. Итак, е с л и поток обладает свойством ординарности, то за бесконечно ма- малый промежуток времени может поя- появиться не более одного события. Простейшим (пуассоновским) называют поток событий, который обладает свойствами стационарности, отсутствия последействия и ординарности. Замечание. Часто на практике трудно установить, обла- обладает ли поток перечисленными выше свойствами. Поэтому были найдены и другие условия, при соблюдении которых поток можно считать простейшим, или близким к простейшему. В частности, установлено, что если поток представляет собой сумму очень большого числа независимых стационарных потоков, влияние каждого из которых на всю сумму (суммарный поток) к и ч- т о ж и о мало, то суммарный поток (при условии его ординарности) близок к простейшему. Интенсивностью потока X называют среднее число со- событий, которые появляются в единицу времени. Можно доказать, чго если постоянная интенсивность потока известна, то вероятность появления k событий про- простейшего потока за время длительностью t определяется формулой Пуассона P,{k) = (It)" . e~ Эта формула отражает все свойства простейшего потока. Действительно, из формулы видно, что вероятность появления k событий за время t, при заданной интенсив- интенсивности, является функцией k и t, что характеризует свой- свойство стационарности. С4 Формула не использует информации о появлении со- событий до начала рассматриваемого промежутка, что харак- характеризует свойство отсутствия последействия. Убедимся, что формула отражает свойство ординарности, Положив k=0 и k=\, найдем соответственно вероятности непоявления событий и появления одного события: — и P,(Q) = e-A\ р,A) =Ш~ Следовательно, вероятность появления более одного со- события Pt(k> 1) = 1 — [Р, @) + Р,A)] = 1 -[е~и + We""]. Пользуясь разложением после эл1?м<мп;фних преобразовании получим Сравнивая Pt{\) и Р,(/е>1), заключаем, что при малых значениях / вероятность появления более одного события пренебрежимо мала по сравнению с вероятностью наступ- наступления одного события, что характеризует свойство орди- ординарности. Итак, формулу Пуассона можно считать математической моделью простейшего потока событий. Пример. Среднее число вызовов, поступающих на АТС в одну минуту, равно двум. Найти вероятности того, что за 5 минут поступит: а) 2 вызова, б) менее двух вызовов, в) не менее двух вызовов. Поток вызовов предполагается простейшим. Р е ш е и и е. По условию К=2, /=5, k=2. Восполь- Воспользуемся формулой Пуассона p,D=w>L^. а) Искомая вероятность того, что за 5 минут поступит 2 вызова р. B) = >0' • е"° - >00-0'000045 = 0,000025. 5V 21 2 Это событие практически невозможно. 3—43 65
б) События «не поступило ни одного вызова» и «посту- «поступил один вызов» — несовместны, поэтому искомая вероят- вероятность того, что за 5 минут поступит менее двух вызовов, по теореме сложения 2) = Р5@) + Ръ A) = e~ 10 • с-' = 0.000195 Это событие практически невозможно. в) События «поступило менее двух вызовов» и «посту- «поступило не менее двух вызовов» противоположны, поэтому искомая вероятность того, что за 5 минут поступит не ме- менее двух вызовов Р5(?>2)=1—P5(fc<2) = 1—0,000495=0,999505. Это событие практически достоверно. Задачи 1. Возможные значения случайной пеличнпи таковы: х, = 2, ха = 5, хз = 8. Известны вероятности первых двух возможных значений: pi = 0,4, pi = 0.15. Найти вероятность хз. Отв. рз = 0,45. 2. Игральная кость брошена 3 раза. Напнсать закон распреде- распределения числа появлений шестерки. Отв. X 3 I Р ^7 I 15 125 75 216 216 216 216 3. Состапить закон распределения вероятностей числа появле ний события А в трех независимых испытаниях, если вероятность появления события п каждом испытании равна 0.6 Отв к 0 I 2 3 р 0,061 0,288 0,432 0,216 4. Прядильщица обслуживает 1000 веретен. Вероятность об рыва ннти на одном веретене в течение одной минуты равна 0,004 Найти вероятность того, что в течение одной минуты обрыв произой дет в пяти веретенах. Отв. Р1Ооо(Б) = 0,1562. 5. Найти среднее число опечаток на странице рукописи, если вероятность того, что страница рукописи содержит хотя бы одну опечатку, равна 0,95 Предполагается, что число опечаток распре- распределено но закону Пуассона. Указание: задача сводится к отысканию параметра X нз уравне ния е—* = 0,05 Отв. 3. 6. Коммутатор учреждения обслуживает 100 абонентов. Ве- Вероятность того, что в течение очной минуты абонент позвонит на коммутатор, равна 0,02. Какое из двух событий вероятнее: в течение одной минуты позвонит 3 абонента; позвонит 4 абонента? Отв Р,00C) = 0,18; РшD) = 0.09. 66 t I'skiiiihci. объемом в 1000 страниц машинописного текста и р\> hi НИМ» опечаток. Найти вероятность того, что наудачу i (умница содержит: а) хотя бы одну опечатку, б) ропно ни ¦тки. и) не менее двух опечаток. Предполагается, что число hi ч 1>>к |>лспредслс!1О по закону Пуассона. Отв. а) Р = 1-е =0.0321 б) Pi,,,wB) = 0,18395 в^ Р = 0.2612 N. Г ценнее числе вызовов, поступающих на АТС в одну минуту пни ниги. Найти вероятность того, что за 2 минуты поступит: ¦ ми юна, б) менее двух вызовов п) не менее двух вызовов A mi тние: в0 => 0.000045. Отв а) 0,000025 б) 0,000493, в) 0,999505. I i и па седьмая ММ1МЛТИЧЕСКОЕ ОЖИДАНИЕ ДИСКРЕТНОЙ ГЛУЧЛЙНОЙ ВЕЛИЧИНЫ N I. Числовые характеристики шскретных случайных величин Мы уже знаем, что закон распределения полностью ха- р штеризует случайную величину. Однако часто закон рас- распределения неизвестен и приходится ограничиваться мень- меньшими сведениями. Иногда даже выгоднее пользоваться числами, которые он исываютслучанную величину суммарно; ыкие числа называют числовыми характеристиками слу- случайной величины. К числу важных числовых характеристик • носится математическое ожидание. Математическое ожидание, как будет показано далее, приближенно равно среднему значению случайной вели- величины. Для решения многих задач достаточно знать математи- математическое ожидание. Например, если известно, что математи- математическое ожидание числа выбиваемых очков у первого стрелка больше, чем у второго, то первый стрелок в среднем выби- выбивает больше очков, чем второй и, следовательно, стреляет лучше второго. Хотя математическое ожидание дает о случайной вели- величине значительно меньше сведений, чем закон ее распре- распределения,— для решения задач, подобных приведенной и многих других, знание математического ожидания оказы- оказывается достаточным. '" 67
§ 2. Математическое ожидание дискретной случайной величины Математическим ожиданием дискретной случайной ве- величины называют сумму произведении всех ее возможных значений на их вероятности. Пусть случайная величина X может принимать только значения хи х„ хп, вероятности которых соответственно равны ри р2 рп. Тогда математическое ожидание М(Х) случайной величины X определяется равенством М(Х)=х1р1+хврг +...+*„/>„. Замечание. Из определения следует, что математическое ожидание дискретной случайной величины есть неслучайная (постоянная) величина. Рекомендуем запомнить это утверждение, так как далее оно используется многократно. В дальнейшем чита- читатель узнает, что математическое ожидание непрерывной случайной величины также есть постоянная величина. Пример I. Найти математическое ожидание случайной величины X, зная закон ее распределения: X 3 5 2 р 0,1 0,6 0.3. Решение. Искомое математическое ожидание рав- равно сумме произведений всех возможных значений случай- случайной величины на их вероятности: М(Х)=3- 0,1+5- 0,6+2- 0,3=3,9. Пример 2. Найти математическое ожидание числа по- появлений события А в одном испытании, если вероятность события А равна р. Решение. Случайная величина X — число появле- появлений события А в одном испытании может принимать только два значения: Xj —1 (событие А наступило) с вероятно- вероятностью р и х2—0 (событие Л не наступило) с вероятностью q=\—р. Искомое математическое ожидание Итак, математическое ожидание чис- числа появлений события в одном ис- испытании равно вероятности' этого события. Этот результат будет использован ниже. 68 I 1-|н>итностный смысл математического ожидания Нуги, произведено п испытаний, в которых случайная » iii'iiin.i X приняла /Нх раз значение хи /н2 раз значение i п., «'л раз значение xh, причем /H1+/n2+.-.+wft=n. Hi in гумма всех значений, принятых X, равна ||ц-м среднее арифметическое X всех значений, приня- •лучайной величиной, для чего разделим найденную мму па общее число испытаний: И'111 X=Xl.^+x2.^ +...+*»^. In мети в, что отношение — есть относительная частота \\ шачсния xlt — есть относительная частота W2 значе- значении да н т. д., запишем соотношение (*) так: l(=x1W1+xsWt+...+xkWk. (**) Допустим, что число испытаний достаточно велико. м1' и относительная частота приближенно равна вероят- iimiii появления события (это будет доказано в гл. IX, Ы W^pu W2~pt, .... Wkc±pk. <Aменив в соотношении (**) относительные частоты пшимчегвующимн вероятностями, получим X~X1pI-H*a/Vb"-l'*ft/V | |>щ(.1>1 часть этого приближенного равенства есть М(Х). ih.iK, Х~М(Х). Ц|'|к)ятностный смысл полученного результата таков: г • м а т н ч е с к о е ожидание п р п б л н- и l и и о равно (тем точнее, чем больше чнечо испы- нишн) среднему арифметическому и а- м даемых значений с л у ч а й и о й в е- I и >> и и ы. Ш
Замечание 1. Легко сообразить, что математическое ожи дание больше наименьшего и меньше наибольшего возможных зна чем ни. Другими словами, на числовой оси возможные значения расположены слева и справа от математического ожидания. В этом смысле математическое ожидание характеризует расположе- расположение распределения и поэтому его часто называют цент ром распределения. Этот термин заимствован из механики: если массы р\, рг, ... , рп расположены в точках с абсциссами.п. хг, ... хп, причем S\p/ =1, то абсцисса центра тяжести *"" Учитывая, что M (X) п \Pl М (X) = хс. = |, получим Итак, математическое ожидание есть абсцисса центра тяжести системы материальных точек, абсциссы которых равны возможным значениям случайном величины, а массы — их вероятностям. Замечание 2. Происхождение термина «математическое ожидание» связано с начальным периодом возникновения теории вероятностей (XVI — XVII вв.), когда область ее применения огра нпчивалась азартными играми. Игрока интересовало среднее зпа чопне ожидаемого выигрыша или иными словами —матсмагичс ское ожидание выигрыша § 4. Свойства математического ожидания Свойство 1. Математическое ожидание постоянной величины равно самой постоянной: M(Q=C. Доказательство. Будем рассматривать по- постоянную С как дискретную случайную величину, которая имеет одно возможное значение С и принимает его с ве- вероятностью р=\. Следовательно, М(С)=С-1=С. Замечание 1 _ Определим произведение постоянной ее личины С на дискретную случайную величину X как дискретную случайную величину СХ, возможные значения которой равны про изведениям постоянной С на возможные значения X; вероятности возможных значении (IX раины вероятностям соответствующих возможных значений /V Например, если вероятность возможного значения xi равна pi. то г.сроятпость того, что величина СХ примет значение Сх\ гакже равна р\ Свойство 2. Постоянный множитель можно выносить за знак математического ожидания: 70 Доказательство. Пусть случайная величина \ задана законом распределения вероятностей: X xt x2... хп р Pi p2... рп. Учитывая замечание I, напишем закон распределения |учайной величины СХ: СХ С*! Сх2 ... Сх„ Р Pi Рг •¦• Рп- Математическое ожидание случайной величины СХ М{СХ)=Сх,р1+Сх2р2+...+Схпрп= =С(х1р1+х2р2+...+х„рп)=СМ(Х). Итак, М(СХ)=СМ(Х). Замечание 2. Прежде, чем перейти к следующему свой ству, укажем, что две случайные величины называют независимыми если закон распределения одной из них не зависит от того, какие возможные значения приняла другая величина. Несколько случай- случайных величин называют взаимно независимыми, если законы распре деления любого числа из них не зависят от того, какие возможные значения приняли остальные величины. Замечание 3. Определим произведение независимых слу чайных величин X и У как случайную величину ХУ. возможные зна- значения которой равны произведениям каждого возможного значе- значения X на каждое возможное значение У; вероятности возможных значений произведения ХУ равны произведениям вероятностей возможных значений сомножителей. Например, если вероятность возможного значения xi равна pi, вероятность возможного значе- значения (/1 равна gi. то вероятность возможного значения xuji равна Свойство 3. Математическое ожидание произведения двух независимых случайных величин равно произведению их математических ожиданий: М (XY) = М (X) М (Y). Доказательство. Пусть независимые случай- случайные величины X и Y заданы своими законами распреде- распределения вероятностей*: X Pi Рг У 8 * Мы ограничились ралым числом возможных значений, чтобы упростить выкладки. В общем случае доказательство аналогичное. 71
M(Y). Составим все значения, которые может принимать слу- случайная величина XY, для чего перемножим все возможные значения X на каждое возможное значение У; в итоге по- получим: xtyu х$и х$г и х?у2. Учитывая замечание 3, напишем «закон распределения» произведения XY: X Х^ Х?){ Р PiSi P2S1 Математическое ожидание равно сумме произведений всех возможных значении на их вероятности: М{ХУ) + + или М (X Y) = i = (x1pl+xip2)(y1g1 Итак, M{XY)=M(X)-M(Y). Следствие. Математическое ожидание произведения нес- нескольких взаимно независимых случайных величин равно произведению их математических ожиданий. Например, для грех случайных величин имеем: M(XYZ)=M{XY-Z)=M(XY)M(Z)=M(X)M{Y)M(Z). Для произвольного числа случайных величин доказа- доказательство проводится методом математической индукции. Пример I. Независимые случайные величины X и Y заданы следующими законами распределения: X 5 2 4 К 7 9 р 0,6 0,1 0,3 р 0,8 0,2. Найти математическое ожидание случайной величины XY. Решение. Найдем математические ожидания каж- каждой из данных величин: М(Х) =5-0,6+2-0,1+4 0,3=4,4; M(Y)=-7- 0,8+9- 0,2=7,4. Так как случайные величины X н Y независимые, то искомое математическое ожидание равно: М (XY)= M(X)M (K)=4,4- 7,4-32,56. Замечание 4. Определим сумму случайных величин X к У как случайную величину X + Y. возможные значения которой равны суммам каждого возможного значения X с каждым возмож- возможным значением К; вероятности возможных значений X •+- У для 72 независимых величии X \\ У равны произведениям вероятностей слагаемых; для зависимых величин — произведениям вероятности Одного слагаемого на условную вероятность второго. Следующее ниже свойство справедливо как для неза- независимых, так и для зависимых случайных величин. Свойство 4. Математическое ожидание суммы двух случайных величин рсишо сумме математических ожида- ожиданий слагаемых: M(X+Y)=M{X)+M(Y). Доказательство. Пусть случайные величины X и Y заданы следующими законами распределения*: X х, х3 У ух у2 Р Pi Pi 8 gi gi- Составим все возможные значения величины X+V, для чего к каждому возможному значению X прибавим каждое возможное значение У; получим Xi+j/u %+^j, *2+i/i и Jt2+(/2- Обозначим вероятности этих значений соответственно через рп, р1г, р21 и рп. Математическое ожидание величины Х-\-У равно сум- сумме произведений возможных значений на их вероятности: )+ или Докажем, что рп-\ Pu=Pi. Событие, состоящее в том что X примет значение ху (вероятность этого события рав- равна pi), влечет за собой событие, которое состоит в том, что X+F примет значение хг+уг или xt+y2 (вероятность этого события но теореме сложения равна pn+Pi2) н об- обратно. Отсюда и следует, что рц+р12—рР Аналогично доказываются равенства * Чтобы упростить выпод, мы ограничились лишь дпумя возможными значениями каждой из величин. В общем случае до- доказательство аналогичное. 73
Подставляя правые части этих равенств в соотношение (*), получим: М(К+У)= или окончательно Следствие. Математическое ожидание суммы несколь- нескольких случайных величин равно сумме математических ожи- ожиданий слагаемых. Например, для трех слагаемых величин имеем: M{X+Y+Z)=M[(X+Y)+Z\= Для произвольного числа слагаемых величин доказа- доказательство проводится методом математической индукции. Пример I. Производится 3 выстрела с вероятностями попадания в цель, равными р, = 0,4; /?2=0,3 и рэ=О,в. Найти математическое ожидание общего числа попаданий. Решение. Число попадании при первом выстреле есть случайная величина Xi, которая может принимать только два значения: 1 (попадание) с вероятностью рх = = 0,4 и 0 (промах) с вероятностью <?=1—0,4=0,6. Математическое ожидание числа попадании при первом выстреле равно вероятности попадания (см. пример 2, стр. 68), т. е. М(Х()=0,4. Аналогично найдем математические ожидания числа попаданий при втором и третьем выстрелах: М(Х2)=0,3, Л1(Х3)=0,6. Общее число попаданий есть также случайная величина, состоящая из суммы попаданий в каждом из трех выстре- выстрелов: Х=Х1+Х2+Х3- Искомое математическое ожидание находим по геореме о математическом ожидании суммы: 1) A) =0,4+0,3+0,6= 1,3 (попаданий). Пример 2. Пай 1'н математическое ожидание суммы числа очков, которые могут выпасть при бросании двух играль- игральных костей ных костей. 74 Решение. Обозначим число очков, которое может выпасть на первой кости, через X и на второй — через Y. Возможные значения этих величин одинаковы и равны 1, 2, 3, 4, 5 и 6, причем вероятность каждого из этих значений равна -g- . Найдем математическое ожидание числа очков, которые могут выпасть на первой кости: М(Х)= 1.-L + 2.—+ 3-4- + 4-—+ 5-JL + Ь 6 6 О О Очевидно, что и М(К)= -g- . Искомое математическое ожидание § 5. Математическое ожидание числа появлений события в независимых испытаниях Пусть производится п независимых испытаний, в каж- каждом из которых вероятность появления события А посто- постоянна и равна р. Чему равно среднее число появлений события А в этих испытаниях? Ответ па этот вопрос дает следующая теорема. Теорема. Математическое ожидание М(Х) числа по- появлений события Л в п независимых испытаниях равно произведению числа испытаний на вероятность появле- появления события в каждом испытании: М(Х)=пр. Доказательство. Будем рассматривать в ка- качестве случайной величины X — число наступлений собы- события А в п независимых испытаниях. Очевидно, общее число X появлений события А в этих испытаниях складывается из чисел появлении события в школьных испытаниях. Поэтому, если Xt— число появле- появлении события в первом испытании, Х2— во втором \я- в п-м, то общее число появлений события X=Xi+ \+Х I |о третьему свопству математического ожидания имеем 75
Каждое из слагаемых правой части равенства есть ма- математическое ожидание числа появлений события в одном испытании: M(Xj) — в первом, М(Х2) — во втором и т. д. Так как математическое ожидание числа появлений собы- события в одном испытании равно вероятности события (§ 2, пример 2), то М(Х1)=М(Х%)=М(Хп)=р. Подставляя в правую часть равенства (*) вместо каждого слагаемого р, получим М(Х) = (**) Замечание. Так как величина X распределена по би- биномиальному закону, то доказанную теорему можно сформулиро- сформулировать н так: математическое ожидание биномиального распределения с параметрами пир равно произведению пр. Пример. Вероятность попадания в цель при стрельбе из орудия р=0,6. Найти математическое ожидание общего числа попаданий, если будет произведено 10 выстрелов. Решение. Попадание при каждом выстреле не за- зависит о г исходов других выстрелов, поэтому рассматривае- рассматриваемые события независимы и, следовательно, искомое мате- математическое ожидание М(Х)=пр= 10-0,6=6 (попаданий). Задачи I. Найти математическое ожидание дискретной случайной ве- величины, зная закон ее распределения: X 6 3 1 р 0,2 0,3 0,5. Отв. 2,6. 2. Производится 4 выстрела с вероятностями попадания в цечь pi = 0,6, pi — 0,'I, рз = 0,5 и р^ = 0,7. Найти математическое ожидание общего числа попаданий. Отв. 2,2 попадания 3. Дискретные независимые случайные величины заданы за- законами распределения: А' I 2 Y 0.5 I р 0,2 0,8 р 0.3 0.7. Найти математическое ожидание произведения XY двумя спосо- способами: 1) составив закон распределения XY; 2) пользуясь свойством 3. Отв. 1,53. 4. Дискретные случайные величины X и Y заданы законами распределения, указанными в задаче 3. Найти математическое ожи- ожидание суммы А + Y двумя способами: 1) составив лаком распреде- распределения X + Y; 2) пользуясь свойством 4. Отв. 2,65- 7G 5. Вероятность отказа детали за время испытания на надеж- надежность равна 0,2. Найти математическое ожидание числа отказав- отказавших деталей, если испытанию будут подвергнуты 10 деталей. Отв. 2 детали. 6. Найти математическое ожидание произведения чнела оч- очков, которые могут выпасть при одном бросании двух игральных костей. Отв. 12,25 очков. 7. Найти математическое ожидание числа лотерейных бнлетов. на которые выпадут выигрыши, если приобретено 20 билетов, при- причем вероятность выигрыша по одному билету равна 0,3. Отв. 6 билетов. Глава восьмая ДИСПЕРСИЯ ДИСКРЕТНОЙ СЛУЧАЙНОЙ ВЕЛИЧИНЫ § I. Целесообразность введения числовой характеристики рассеяния случайной величины Легко указать такие случайные величины, которые имеют одинаковые математические ожидания, но различ- различные возможные значения. Рассмотрим, например, дискретные случайные вели- величины X и Y, заданные следующими законами распреде- распределения: X —0,01 0,01 Y —100 100 р 0,5 0,5 р 0,5 0,5. Найдем математические ожидания этих величин: М(Х)=—0,01 -0,5+0,01 -0,5=0, М(У)=—100-0,5+100-0,5=0. Здесь математические ожидания обеих величин одина- одинаковы, а возможные значения различны, причем X имеет возможные значения, близкие к математическому ожи- ожиданию, a Y — далекие от своего математического ожидания. Таким образом, зная лишь математическое ожидание слу- случайной величины, еще нельзя судить ни о том, какие воз- возможные значения она может принимать, ни о том, как они рассеяны вокруг математического ожидания. Другими словами, математическое ожидание полностью случайную ислпчину не характеризует. 77
х„ Р„- По этой причине, наряда с математическим ожиданием, вводят и другие числовые характеристики. Так например, для того, чтобы оцепить, как рассеяны возможные значения случайной величины вокруг ее математического ожидания, пользуются, в частности, числовой характеристикой, ко- горую называют дисперсией. Прежде чем перейти к определению и свойствам диспер- дисперсии, введем понятие отклонения случайной величины от ее математического ожидания. § 2. Отклонение случайной величины от ее математического ожидания Пусть X — случайная величина и М(Х) — ее матема- математическое ожидание. Рассмотрим в качестве новой случай- случайной величины разность X—М(Х). Отклонением называют разность между случайной ве- величиной ее математическим ожиданиям. Пусть закон распределения X известен: X Ху лг2 Р Pi Рг Напишем закон распределения отклонения. Для того чтобы отклонение приняло значение *i—М(Х) достаточно, чтобы случайная величина приняла значение xt. Вероят- Вероятность же этого события равна pt; следовательно, и вероят- вероятность того, что отклонение примет значение xt—М(Х), также равна pv Аналогично обстоит дело и для остальных возможных значений отклонения. Таким образом, отклонение имеет следующий закон распределения X— М(Х) хг—М(Х) х2 — М(Х) ... Хп— М[Х\ Р Р, Рг •¦¦ Рп Приведем важное свойство отклонения, которое будет использовано далее. Теорема. Математическое ожидание отклонения рав- равно нулю: М[Х-Л1(Х)]=0. Доказательство. Пользуясь свойствами мате- математического ожидания (математическое ожидание разности равно разности математических ожиданий, математичес- 78 кое ожидание постоянной равно самой постоянной) и при- приняв во внимание, что М(Х) есть постоянная величина, имеем: М[Х—М(Х)]=М(Х)—М\М(Х)\=М{Х)—М{Х)=О. § 3. Дисперсия дискретной случайной величины На практике часто требуется оценить рассеяние воз- возможных значении случайной величины вокруг ее среднего значения. Например, в артиллерии важно знать, насколь- насколько кучно лягут снаряды вблизи цели, которая должна быть ьоражена. На первый взгляд может показаться, что для оценки рассеяния проще всего вычислить все возможные значе- значения отклонения случайной величины и затем найти их сред- среднее значение. Однако такой путь ничего не даст, так как среднее значение отклонения, т. е. ЛЯХ—М(Х)], для любой случайной величины равно пулю. Эго свойство уже было доказано в предыдущем параграфе и объясняется тем, что одни возможные отклонения положительны, а другие от- отрицательны; в результате их взаимного погашения среднее значение отклонения равно нулю. Эти соображения говорят- о целесообразности заменить возможные отклонения их абсолютными значениями или их квадратами. Так и поступают на деле. Правда, в случае, когда возможные отклонения заменяют их абсолютными значениями, приходится оперировать с абсолютными ве- величинами, что приводит иногда к серьезным затруднени- затруднениям. Поэтому чаще всего идут по другому пути, т. е. вычис- вычисляют среднее значение квадрата отклонения, которое и пазы вают дисперс ней. Дисперсией (рассеянием) дискретной случайной вели- величины называют математическое ожидание квадрата откло- отклонения случайной величины от ее математического ожидания: = Л1[Х—Л1(ХI2. Пусть случайная величина задана законом распре- распределения Л Х\ А*2 • • • Х-. Р Р\ Рг ••• Рп- Тог^а квадрат отклонения имеет следующий закон распределения: га
[Х-М(Х)]* [*,-Л4(ХI« [xt-M(X)f ... [xn~M(XW p Pi p2 ... pn. По определению дисперсия равна ... +1хп-М(Х))*-Рп. Таким образом, для того, чтобы найти дисперсию, дос- достаточно вычислить сумму произведений возможных зна- значений квадрата отклонения на их вероятности. Замечание. Из определения следует, что дисперсия дис- дискретной случайной величины есть неслучайная (постоянная) вели- величина. В дальнепшем читатель узнает, что дисперсия непрерывной случайной величины также есть постоянная величина. Пример. Найти дисперсию случайной величины X, ко- которая задана следующим законом распределения: X 1 2 5 р 0,3 и,5 0,2. Решение. Найдем математическое ожидание М(Х)=1-0,3+2-0,5+5-0,2=2,3. Найдем все возможные значения квадрата отклонения I*!—М(Х)?=(\— 2,3J=1,69; lx2—M(X)]Z=B—2,3J=0,09; [х3—М(Х)]2=E—2,3J=7,29. Напишем закон распределения квадрата отклонения: [X—/И(Х)]2 1,69 0,09,7,29 р 0,3 0,5 0,2. По определению дисперсия D(X) = 1,69- 0,3+0,09- 0,5+7,29.0,2=2,01. Мы видим, что вычисление, основанное на определе- определении дисперсии, оказалось относительно громоздким. Да- Далее будет указана формула, которая приводит к цели зна- значительно быстрее. 4. Формула для вычисления ик'нерсии Для вычисления дисперсии часто бывает удобно поль- юваться следующей теоремой. Теорема. Дисперсия рсвыа разности между математи- математическим ожиданием квадрата случайной величины X и квад- квадратом ее математического ожидания: Доказательство. Математическое ожидание М(Х) есть постоянная величина, следовательно, 2М(Х) и М2(Х) есть также постоянные величины. Приняв это во внимание и пользуясь свойствами математического ожида- ожидания (постоянный множитель можно вынести за знак мате- математического ожидания, математическое ожидание суммы равно сумме математических ожиданий слагаемых), упро- упростим формулу, выражающую определение, дисперсии: D(X)=MIX— Л4(ХI2=М1Х2—2ХЛ1(Х)+Л12(ХI = = Л/(Х1!)-2Л1(Х)мМ(Х)+Л12(Х) = =М(Х2)—2М2(Х)+Л12(Х)=ЛТ(Х2)—МЦХ) Итак, О(Х)=М(Х2)-Ш(ХI2. Квадратная скобка введена в запись формулы для удоб- удобства ее запоминания. Пример I. Найти дисперсию случайной величины X, которая задана следующим законом распределения: X 2 3 5 р 0,1 0,6 0,3. Р е ш е н и е. Найдем математическое ожидание М(Х): Л/(Х)=2-0,1+3-0,6+5- 0,3=3,5. Напишем закон распределения случайной величины X2: X2 4 9 25 р 0,1 0,6 0,3. Найдем математическое ожидание Л1(Х2): ,V1(X2)=4-O,1 +9- 0,6+25-0,3= 13,3. Искомая дисперсия D(X)=M(X2)—[Л1(Х)]2= 13,3— C,5J = 1,05.
Замечание. Казалось бы, что если X и Y имеют одинако- одинаковые но.шежные значения и одно и то же математическое ожидание, 1о и дисперсии i>iи.\ испиши [мним (недь по: \н)Iлыс ипучсмня обе- их ислпчин одинаково рассеяны иокрчг своих ма гоматнческнх ожи- ожиданий!). Однако, в обиам случае, эго не гак. Дело и том, чго однна- коиые позможные значения рагсчагрпиасмих величин имеют, вообще rontijiii. различные г.сроятиоетн, а к е л п ч и па дне- перс и и определяется не го л ьк о с а м ими воз м о ж и ы м и з и л 'I е и и я м и, и о и их вероятно с т я м п. Например, если пгцоятиостн «далеких» от математического ожидании возможных значении Л' бо.чыпе, чем пероятностн этих же значении Y и вероятности «близких» значении Л меньше, чем пероятпостп тех же значении Y. то. очевидно. днснс| сил Л' бол мне дисперсии Y. Приведем нллюсфпрующпи пример. Пример 2. Сравнить дисперсии случайных величии, за данных законами распределения: X - I I 2 3 У -I I 2 3 р 0,48 0.01 0.09 0.12 р 0,19 0,51 0,25 0,03. Решение. Легко убеди nor, что Таким образом, возможные значения и математические ожидания X и )' одинаковы, а дисперсии различны, причем D(X)>D(V). Этот результат можно было предвидеть без вычислений, глядя лишь па законы распределении. § 5. Свойства дисперсии Снопегви 1. Дисперсия постоянной величины С рсоип нулю: Доказательство. По определению дисперсии имеем Пользуясь первым свойством математического ожида- ожидания (математическое ожидание постоянной равно самой постоянной), получим D(Q=#H[(C-C)s] = AI@) = 0. II Til К, D (С) = 0. Свойство становится ясным, если учесть, что постоянная целнчнка сохраняет одно и то же значение и рассеяния, конечно, не имеет. Свойство 2. Постоянный множитель моокно выносить л» знак дисперсии, вглв'удя его в квадрат: D(CA') -СЮ(Х). Доказательство. По определению дисперсии имеем ЩСХ) = М[[СХ—М(СХ)\*\. Щ) Пользуясь вторым свойством математического ожида- ожидания (постоянный множитель можно выносить за знак ма- математического ожидания )t получим и(СА')^Л1![СХ-СЛ!(Л)Н| = Л1,Сг|Х—Л1(АI2| = =--СЧ\ • I A'—,YI(A)lai = СЧЦХ). Итак, 1ЦСХ) С-1ЦХ). Свойство стаповпк-я ясным, если принять во внимание, что при |С| >1 величина СХ имеет возможные значения (по абсолютной величине) большие, чем величина X. Отсюда следует, что эти значения рассеяны вокруг математического ожидании М(СХ) больше, чем возможные значения X вокруг М(Х), т. е. D(CX)>D(X). Напротив, если 0<|С|<1, то D{CX)<li{X). Свойство 3. Дисперсия суммы соуу независимых слу- случайных величин равна сумме дисперсий этих величин: D{X\rY)=D(X)+D(Y). Доказательств о. По формуле для вычисления цисперспп имеем D(X + Y) --- Раскрыв скобки и пользуясь свойствами математичес- математического ожидания суммы нескольких величин и произведения двух независимых случайных величин, получим D (А + Y) = МIX2 + 2АУ + Уг] - 1Л1 (Л) + Л! (К)]2 = = М (Xs) + 2Л! (Л) - Л-1 (V) + Л1 (Y*) - Л1* (Л) — 4* ЬЗ
- 2M (X) • М (У) - Мг (К) = \М (X2) - [М (X)j2j -(- + [М (К2) - [М (K)]2J = D (X) + D (Y). Htik () Следствие I. Дисперсия суммы нескольких взаимно не- независимых случайных величин равна сумме дисперсий этих величин. Например, для трех слагаемых имеем D(X (b)]D(X =D(X)+D(Y)i-D(Z). Для произвольного числа слагаемых доказательство проиодится методом математической индукции. Следствие 2. Дисперсия суммы постоянной величины и случайной равна дисперсии случайной величины: D(C+X)=D(X). Доказательство. Величины С и А независи- независимы, полому по третьему свойству D(C+X)=D(Q+D(X). В силу первого свойства D(C)=0. Счедователыю, Свойство становится попятным, если учесть, что вели- величины А'и Хт С отличаются лишь началом отсчета и, зна- значит, рассеяны вокруг своих математических ожиданий одинаково. Свойство 4. Дисперсия разности двух независимых случайных величин равна сумме их дисперсий: D(X-K)=D(X)+D(K). Доказательство. В силу третьего свойства D(X—Y)=D(X)+D{—y). По второму свойству или D(X—Y)=D(X) ||. (нсперсия числа и нений события в независимых н ныганнях Пусть производится п независимых испытаний, в каж- н м из которых вероятность появления события А по- ннина. Чему равна дисперсия числя появлений события > них испытаниях? Ответ на этот вопрос даст следующая р Г еорема. Дисперсия числа появлений события Л в п и,аисимых испытаниях, в каждом из которых всроят- p появления события постоянна, равна произведению испытаний на вероятности появления и непоявления >' ытия в одном испытании: D(X)=npq. Доказательство. Рассмотрим случайную ве- niMiitiy X — число появлении события Л в л незазпеимых испытаниях. Очевидно, общее число появлений события в мнх испытаниях равно сумме появлений события в от- отельных испытаниях: X=Xi+X2+...+Xn, где Xi— число наступлении события в первом испытании, Аа— во втором, ..., Х„— в п-м. Величины Xi, X2 Х„ взаимно независимы, так как исход каждого испытания не зависит от исходов остальных, поэтому мы вправе воспользоваться следствием 1 (§ 5): + D(X2)+...+D(Xn). (•) (**) Вычислим дисперсию X, по формуле D(X1)=M(X2)-[M(X1)]2. Величина Xi есть число появлений события А в перпом испытании, поэтому (гл. VII, § 2, пример 2) Л1(А\)=р. Найдем математическое ожидание величины A'j, ко- которая может принимать только два значения, а именно I* с вероятностью р и О2 с вероятностью q: Подставляя найденные результаты в соотношение (**), имеем 85
Очевидно, дисперсия каждой из остальных случайных величин также равна р. Заменив каждое слагаемое правой части (*) через р, окончательно получим Замечание Гак как иол и чипа X распределена но бино- биномиальному закону, то доказанную п-ириму можно сфг.рмулнрииать и так: дисперсия биномиального распределения с параметрами п и р равна произведению npq. Пример. Производятся 10 независимых испытании, в каждом из которых вероятность появления события равна 0,6. Найти дисперсию случайной величины X — числа появлении события в этих испытаниях. Решен» е. По условию п - 10; /з = О,6. Очевидно, вероятность непоявления события 7=1-0,6=0,4. Искомая дисперсия ) = npq= 10- 0,6-0.4 = 2,1. У 7. Среднее квадратическое отклонение Для оценки рассеяния возможных значений случайной величины вокруг ее среднею значения кроме дисперсии служат н некоторые другие характеристики. К их числу относится среднее квадратическое отклонение. Средним квадратическим отклонением случайной ве- величины X называют квадратный корень из дисперсии: Легко показать, что дисперсия имеет размерность рав- равную квадрату размерности случайной величины. Так как среднее квадратическое отклонение раппо квадратному корню из дисперсии, то размерность з(Л') совпадете размер- размерностью Л. Поэтому в rex случаях, когда желательно, что- чтобы оценка рассеяния имела размернойь случайной ве- величины, вычисляют среднее квадратическое отклонение, а не дисперсию. Например, если X выражается в линейных метрах, то а(Х) будет выражаться также в линейных мет- метрах, a D(X) — в квадратных метрах. Пример. Случайная величина X задана законом рас- распределения X 2 3 К) Р 0,1 0,1 0,5 8С II.in in среднее квадратическое отклонение сг(Х). I' с hi с и и е. Найдем математическое ожидание X: Л1(Х)-20,| | 3-0,4+10- 0,5-6,4. Найдем математическое ожидание X2: М(Х2)=220,Ц 32-0,1+102 -0,5-54. Найдем дисперсию: О(Х) = Л1(Я2)-|Л1(Л'Iг-54—6,48= 13,04. I Ickomoc среднее кпадратнческое отклонение Н. Среднее квадратическое отклонение гуммы взаимно независимых глучпйных величин Пусть известны средние квадратические отклонения нескольких взаимно независимых случайных величин. Как найти среднее квадратическое отклонение суммы этих нстпчнн? Ответ па этот вопрос дает следующая теорема. Теорема. Среднее квлдрапшческое отклонение суммы конечного числа взаимно независимых случайных величин равно квлдратному корню из суммы квидратсв средних ивадратических отклонений этих величин: , (X, 4 Х2 + ... + Хп) = Го*(Х1) + 3*(Х2)+...-1-=2(Х,1). Доказательство. Обозначим через X сумму рассматриваемых взаимно независимых величин: Х=Х1+Х,+...-!-Х„. Так как дисперсия суммы нескольких взаимно тча- ппсимых случайных величин равна сумме дисперсии сла- слагаемых (§ 5, следствие 1), то Отсюда = D(X1)-bD(X2)-r-...-fD(X,1). \/D (X) = \f D (Л,) + D (X2) + ...-i D (A,,,, »¦/
ил» окончательно § 9. Одинаково распределенные взаимно независимые случайные величины Уже известно, что по закону распределения можно найти числовые характеристики случайной величины. От- Отсюда следует, что если несколько случайных пеличпн имеют одинаковые распределения, то их числовые хара- характеристики одинаковы. Рассмотрим п взаимно независимых случайных величин Хх, Х2, .... Хп, которые имеют одинаковые распределения, а следовательно, и одинаковые характеристики (математи- (математическое ожидание, дисперсию и др.). Наибольший интерес представляет изучение числовых характеристик среднего арифметического этих величии, чем мы н займемся в настоя- настоящем параграфе. Обозначим среднее арифметическое рассматриваемых случайных величин через X: Счедующне ниже три положения устанавливают связь между числовыми характеристиками среднего арифмети- арифметического X и соответствующими характеристиками каждой отдельной величины. I. Математическое ожидание среднего арифметичес- арифметического одинаково распределенных взаимно независимых слу- случайных величин равно математическому ожиданию а каждой из ветчин: М(Х) = а. Доказательство. Пользуясь свойствами мате- математического ожидания (постоянный множитель можно вы- вынести за знак математического ожидания; математическое ожидание суммы равно сумме математических ожидании слагаемых), имеем: м(х) = м/*i+•*. + ¦¦•-* *«\ = 83 Приняв во внимание, что математическое ожидание каждой из величин по условию равно а, получим 2. Дисперсия среднего арифметического п одинаково распределенных взаимно независимых случайных величин в п раз меньше дисперсии D каждой из величин: Г) Доказательство. Пользуясь свойствами дис- дисперсии (постоянный множитель можно вынести за знак дисперсии, возведя его в квадрат; дисперсия суммы неза- независимых ветчин равна сумме дисперсий слагаемых), имеем D (X,) ... +Р(Хп) Приняв во внимание, что дисперсия каждой из величин по условию равна D, получим: 3. Среднее квадратическое отклонение среднего арифме- арифметического п одинаково распределенных взаимно независимых случайных величин в \Гп раз меньше среднего квадратичес- кого отклонения а каждой из величин: (**) о Л1 = ——• Доказательство. Так как D(X)= —, то сред- среднее квадратпческое отклонение X равно Общий вывод из формул (*) н (**): вспоминая, что дис- дисперсия и среднее квадратпческое огклоненпе служат ме-
рами рассеяния случайной величины, заключаем, что среднее арифметическое достаточно большого числа вза- взаимно независимых случайных величин имеет значительно меньшее рассеяние, чем каждая отдельная величина. Поясним на примере значение этого вывода для прак- практики. Пример. Обычно для измерения некоторой физической величины производят несколько измерении, а затем нахо- находят среднее арифметическое полученных чисел, которое принимают за приближенное значение измеряемой вели- величины. Предполагая, что измерения пронзвоцятся в одних и тех же условиях, доказать: а) среднее арифметическое дает результат более надеж- пын, чем отдельные измерения; б) с увеличением числа измерений надежность этою результата возрастает. Решение, а) Известно, что отдельные измерения дают не одинаковые значения измеряемой величины. Ре- Результат каждого измерения зависит от многих случайных причин (изменение температуры, колебания прибора и т. п.), которые не могут быть заранее полностью учтены. Поэтому мы вправе рассматривать возможнее резуль- результаты п отдельных измерений в качестве случайных вели- величин Ку, X», ..., Хп (индекс указывает помер измерения). Эти величины iimcioi одинаковое распределение всроят- погтен^измереппя производятся по одной н той же методике и теми же приборами), а следовательно, и одинаковые чис- числовые характеристики; кроме того, они взаимно независи- независимы (результат каждого отдельного измерения не зависит от остальных измерении). Мы уже знаем, ч\о среднее арифметическое таких ве- величин имеет меньшее рассеяние, чем каждая отдельная величина. Иначе говоря, среднее арифметическое оказы- оказывается более близким к истинному значению измеряемой величины, чем результат отдельного измерения. Jto и оз- означает, что среднее арифметическое нескольких измерений дает Солее надежный результат, чем отдельное измерение. б) Нам уже известно, что при возрастании числа отдель- отдельных случайных величин, рассеяние среднего арифмети- арифметического убывает. Это значит, что с увеличением числа изме- измерении среднее арифметическое нескольких измерении все менее отличается от истинною значения измеряемой ве- величины. Таким образом, увеличивая число измерений, получают более натужный результат. 90 Например, если среднее квадратическое отклонение отдельного измерения су 6 м, а всего произведено п^Зб измерении, то среднее кватрагическое отклонение сред- среднего арифметического этих измерений равно .Тишь Действительно, ' (X) - 3 1 м. -= 1. \'п У 36 Мы видим, что среднее арифметическое нескольких изме- измерений, как н следовало ожидать, оказалось более близким к истинному значению измеряемой величины, чем резуль- результат отдельного измерения, § 10. Понятие о моментах распределения Рассмотрим дискретную случайную величину X, за- заданную законом распределения: X 1 2 5 100 р 0,6 0,2 0,19 0,01. Найдем математическое ожидание X: Al(X)-l-0,6f-2-0,2 I 5-0,19+100-0,01 =2,95. I laiiiiuiCM закон распределения Л'-: X2 I 4 25 10 000 р 0,06 0,02 0.19 0,01. Найдем математическое ожидание А'-: Л1(Х4)=1-0.6+4-0,2+25-0.19 [-10 000-0,01 = 106,15. Мы видим, что Л1(Х2) значительно больше Л1(Х). Это объясняется тем, что после возведения в квадрат возможное значение величины X2, соответствующее значению .v 100 величины X, стало равным 10 000, т. е. значительно увели- увеличилось; вероятность же этого значения мала @,01). Таким образом, переход от М(Х) к Л1(Х2) позволил лучше учесть влияние па математическое ожидание того возможного значения, которое велико и имеет малую перо- ятность. Разумеется, если бы величина X имела несколько больших и маловероятных значений, то переход к вели- величине X2, а тем более к величинам X3, X1 и т. д., позволил бы еще больше «усилить роль» этих больших, по м&човероят- 91
ных возможных значении. Вот почему оказывается це- целесообразным рассматривать математическое ожидание це- целой положительном степени случайной величины (не толь- только дискретной, но и непрерывной). Начальным моментом порядка k случайной величины X называют математическое ожидание величины Xй: В частности, v2 = М (X2). Пользуясь этими моментами, формулу для вычисления дисперсии О(Х)=Л'7(Х2)—Ш(Х)]2 можно записать так: D(X) = v2-v?. (*) Кроме моментов случайной величины X, целесообразно рассматривать моменты отклонения X—М(Х). Центральным моментом порядка k случайной величины X называют математическое ожидание величины (X—M(X)f: В частности, (***) Легко выводятся соотношения, связывающие началь- начальные и центральные моменты. Например, сравнивая (*) и (***), получим Нетрудно, исходя из определения центрального момен- момента и пользуясь свойствами математического ожидания, получить формулы: Моменты более высоких порядков применяются редко. Замечание. Моменты, рассмотренные здесь, называют теоретическими. В отличие от теоретических моментов, моменты. 92 которые вычисляются по данным наблюдений, называют эмпири- эмпирическими. Определения эмпирических моментов даны далее (гл. XVII, § 2). Задачи 1. Известны дисперсии дпух независимых случайных величин: D (X) = 4. D (У) = 3. Нанги дисперсию суммы этих величин. Отв. 7. 2. Дисперсия случайной величины X равна 5. Найти диспер- дисперсию следующих величин: а) X — 1; б) —2Х; в) ЪХ + 6. Отв. а) 5; б) 20; в) 45. 3. Случайная величина X принимает только два значения +С и —С, каждое с вероятностью 0,5 Найти дисперсию этой ве- величины Отв. С2. 4. Найти дисперсию случайной величины, зная закон ее рас- распределения X 0,1 2 10 20 р 0,4 0,2 0,15 0,25. Отв. 67,6404 5. Случайная величина X может принимать два возможных значения: хг с вероятностью 0,3 и Х2 С вероятностью 0,7. причем *s > xi Найти xi и ха. зная что М ((X) = 2,7 н D {X) = 0.21. Отв xi = 2; х« == 3. 6. Найти дисперсию случайной величины X — числа появле- появлений события А в двух независимых испытаниях, если М (X) = 0,8. Указание. Написать биномиальный закон распределения ве- вероятностен числа появлений события А в двух независимых испы- испытаниях. Отв 0,48. 7. Испытывается устройство, состоящее из четырех независи- независимо работающих приборов. Вероятности отказа приборов таковы: pi = 0,3; рг = 0,4; рз = 0,5; pt = 0,6. Найги математическое ожидание и дисперсию числа отказавших приборов. Опт 1,8; 0,94 8. Найти дисперсию случайной величины X — числа появле- появлений события в 100 независимых испытаниях, в каждом из которых иороятность наступления события равна 0.7. Отв. 21 9. Дисперсия случайной величины D (X) = 6,25 Найти сред- среднее квадратпческое отклонение о (X) Отв 2,5 10. Случайная величина задана законом распределении X 2 4 8 р 0,1 0,5 0,4. ИпАти среднее квадратическое отклонение этой величины. Отв. 2,2. 11. Дисперсия каждой из 9 одинаково распределенных взанм- 1Ш независимых случайных величин равна 30. llaimi дисперсию i-|ii"niero арифметического этих величин. Отв. 4, 93
12. Среднее квадратнческое отклонение каждой из 16 одинако- одинаково распределенных взаимно независимых случайных величин рав- равно 10. Найти среднее квадратическое отклонение среднего арифме- арифметического этих величин. Отв. 2,5. Глава девятая ЗАКОН БОЛЬШИХ ЧИСЕЛ § 1. Предварительные замечания Как мы знаем, нельзя заранее уверенно предвидеть, ка- какое из возможных значений примет случайная величина в итоге испытании; это зависит от многих случайных при- причин, учесть которые мы не в состоянии. Казалось бы, что поскольку о каждой случайной величине мы располагаем в этом смысле весьма скромными сведениями, то вряд ли можно установить закономерности поведения и суммы до- достаточно большого числа случайных величин. На самом деле это не так. Оказывается, что при некоторых сравни- сравнительно широких условиях суммарное поведение достаточно большого числа случайных величин почти утрачивает случайный характер и становится закономерным. Для практики очень важно знание условий, при выпол- выполнении которых совокупное действие очень многих случай- случайных причин приводит к результату, почти не зависящему от случая, так как позволяет предвидеть ход явлений. Эти условия и указываются в теоремах, носящих общее наз- название закона больших чисел. К ним относятся теоремы Чебышева и Бернуллн (имеются и другие теоремы, которые здесь не рассматриваются). Теорема Чебишева является наиболее общим законом больших чисел, теорема Бернул- ли — простейшим. Для доказательства этих теорем мы воспользуемся нера- неравенством Чебышева. § 2. Неравенство Чебышева Неравенство Чебышева справедливо для дискретных и непрерывных случайных величин. В целях упрощения мы ограничимся доказательством этого неравенства для дискретных величин. 94 Рассмотрим дискретную случайную величину X, за- заданную таблицей распределения: X xt Р Pi Рп- Поставим своей задачей оценить вероятность того, что отклонение случайной величины от ее математического ожи- ожидания не превышает по абсолютной величине положитель- положительного числа е. Если s достаточно мало, то мы оценим, та- таким образом, вероятность того, что X примет значения, до- достаточно близкие к своему математнческошу ожиданию. П. Л. Чебышев доказал неравенство, позволяющее дать интересующую нас оценку. Неравенство Чебышева. Вероятность то- того, что отклонение случайной величины X от ее мйтемати- ческого ожидания по абсолютной величине меньше положи- положительного числа е не меньше, чем 1 — D(X) PflX-M(X)|<s)>l- D(X) Доказательство. Так как события, состоящие в осуществлении неравенств \Х—М(Х)| <г и |Х—М(Х)|>-е противопапожны, то сумма их вероятностей равна единице, т. е. Отсюда интересующая пас вероятность Мы видим, что задача сведена к вычислению вероят- вероятности Р(|Х—М(Х)|>е). Напишем выражение дисперсии случайной величи- величины X: D (X) = [*, - М (X)f Pl -f [*2 - М (X)]* р2 + .- Очевидно, все слагаемые этой суммы не отрицательны. Отбросим те слагаемые, у которых \xt—М(Х)| <л (для оставшихся слагаемых \х}—М(Х){>е), вследствие чего сумма может только уменьшиться. Ьудем считать для 95
определенности, что отброшено k первых слагаемых (не нарушая общности, можно считать, что в таблице распре- распределения возможные значения занумерованы именно в таком порядке). Таким образом, D (X) > [хм - М (X)]2 рш + [хм - М {X)? pk.2 + Заметим, что обе части неравенства \xj—М(Х)\~>>г (/=- =k+l, k + 2 п) положительны, поэтому, возведя их в квадрат, получим равносильное неравенство \Xj — М(Х)\2 >- е2. Воспользуемся этим замечанием к, заменяя в оставшейся сумме каждый из множителей \Xj—М(Х)|2 числом е2 (при этом неравенство может лишь усилиться), получим D (X) > е2 (рм + ... + рп). (**) По теореме сложения сумма вероятностен РАО+р*.+2 + + - • • + Рп есть вероятность того, что X примет одно, безразлично какое, из значении хк+1, xkt.2,..., х„, а при любом из них отклонение будет удовлетворять неравен- неравенству \Xj — М(Х)|>>6. Отсюда следует, что сумма + + Рш + • • • + Рп выражает вероятность Это соображение позволяет переписать неравенство (**) так: или /***) Подставляя (***) в (*), окончательно получим что и требовалось доказать. Замечание. Неравенство Чебышева имеет для практики ограниченное значение, поскольку часто дает грубую, а иногда и тривиальную (не представляющую интереса) оценку, Например, если D {X) > е* и, следовательно, —¦-$— >1, то 1 ——-з— <гО: 96 пким образом, в этом случае неравенство Чебышева указывает лишь на то, что вероятность отклонения не отрицательна, а это и без того очевидно, так как любая вероятность выражается неотри- неотрицательным числом. Теоретическое же значение неравенства Чебышевз весьма иелнко. Ниже мы воспользуемся этим неравенством для вывода теоремы Чебышева. § 3. Теорема Чебышева Теорема Чебышева. Если Xj, X2, ..., Х„ попарно неза- независимые случайные величины, причем дисперсии их равно- равномерно ограничены (не превышают постоянного числа С), то как бы мало ни было положительное число е, вероят- вероятность неравенства будет как угодно близка к единице, если число случайных величин достаточно велико. Другими словами, в условиях теоремы дЛН^ Л1 (X,) + M(X2) + ••• +М(Х„) Таким образом, теорема Чебышева утверждает, что если рассматривается достаточно большое число независимых случайных величин, имеющих ограниченные дисперсии, то почти достоверным можно считать событие, состоящее в том, что отклонение среднего арифметического случайных величин от среднего арифметического их математических ожиданий будет по абсолютной величине сколь угодно ма- малым. Доказательство. Введем в рассмотрение houjio случайную величину — среднее арифметическое случай- случайных величин Найдем математическое ожидание X. Пользуясь сиой- ствами математического ожидания (постоянный множитель можно вынести за знак математического ожидания, мате- «7
матпчеекое ожидание суммы равно сумме математических ожиданий слагаемых), получим A](V/l) Применяя к величине А' неравенство Чебышева, имеем или, учитывая соотношение (*), _ М (.Y,) + М (,Уа) + ¦ ¦ ¦ + Д| (Л'„) (JX,+Xt h ¦-•+Л'„\ С*) Пользуясь свойствам» дисперсии (постоянный множи- множитель можно вынеетп за знак дисперсии, возведя его в квадрат; дисперсия суммы независимых случайных нелн- чнн равна сумме дисперсии слагаемых), получим D f [ Xl + Х* f = D (Y|) + D (Xi) f> (Xn) n- По условию дисперсии всех случайных величин огра- ограничены постоянным числом С, т. с. имеют место неравен- неравенства: поэтому D (Хг) < С; D (Х2) < С;...; D (Хп) < С, C-t- ... +с nC _ C_ n2 n 03 II гак, / \, + Л2 + ¦ • • Ч *V,i \ ^ С V л } "^ п /*s*\ Подставляя правую часть (***) в неравенство (**) (отчего последнее может бить лишь усилено), имеем p 11 Xi+Xa + .'- +Xn _ Отсюда переходя к пределу нрн я-со. "атучпм А! 1ХЛ Наконец, учитывая, чго вероятность не может пре- превышать единицу, окончательно можем написать Л1 (Л,) Теорема доказана. Выше, формулируя теорему Чебышева, мы предпола- предполагали, что случайные, величины имеют различные математи- математические ожидания. Па практике часто бывает, чго случай- случайные величины имею г одно н то же математической ожида- ожидание. Очевидно, что если вновь допустить, что дисперсии этих величин ограничены то к ним будет применима теорема Чебышева. Обозначим математическое ожидание каждой из слу- случайных величин через а; в рассматриваемом случае среднее арифметическое математических ожиданий, как легко ви- видеть, также равно а. Мы можем сформулировать теорему Чебышева для рас- рассматриваемого частного случая. Если А',. Х2, .... Хп — попарно независимые случайные величины, имеющие одно и то же математическое ожида- ожидание а, и если дисперсия этих величин равномерно ограниче- 99
ны, то как бы мало ни было число е>0, вероятность нера- неравенства n — а <s будет как угодно близка к единице, если число случайных величин достаточно велико. Другими словами, в условиях теоремы будет иметь место равенство lim § 4. Сущность теоремы Чебышева Сущность доказанной теоремы такова: хотя отдельные независимые случайные величины могут принимать зна- значения далекие от своих математических ожиданий,— сред- среднее арифметическое достаточно большого числа случай ных величин с большой вероятностью принимает значения близкие к определенному постоянному числу, а именно М (Л',) + .VI (Л',) + ... +М (Хп) . к числу— " —— :——- (или к числу а в част- п ном случае). Иными словами, отдельные случайные вели- величины могут иметь значительный разброс, а их среднее арифметическое рассеянно мало. Таким образом, нельзя уверенно предсказать, какое возможное значение примет каждая из случайных вели чин, по можно предвидеть какое значение примет их сред- среднее арифметическое. Итак, среднее арифметическое до- достаточно большого числа независи- независимых случайных величин (дисперсии которых равномерно ограничены) утрачивает характер случайной величины. Объясняется это тем, что отклонения каждой из величин от своих математичес- математических ожидании могут бить как положительными, так и отрицательными, а в среднем арифметическом они взаимно погашаются. Теорема Чебышева справедлива не только для дискрет- дискретных, но и для непрерывных случайных величии; она яв ляется ярким примером, подтверждающим справедли вость учения диалектического материализма о связи между случайностью и необходимостью. 100 $ 5. Значение теоремы Чебышева для практики Приведем примеры применения теоремы Чебышева к решению практических задач. Обычно для измерения некоторой физической величины производят несколько измерений и их среднее арифмети- арифметическое принимают в качестве искомого размера. При ка- каких условиях этот способ измерения можно считать пра- цильным? Ответ на этот вопрос дает теорема Чебышева (ее частный случай). Действительно, рассмотрим результаты каждого изме- измерения как случайные величины Х|, Хг, .... Х„. К этим ве- величинам можно применить теорему Чебышева, если: I) они попарно независимы, 2) имеют одно и то же математическое ожидание, 3) дисперсии их равномерно ограничены. Первое требование выполняется, если результат каж- каждого измерения не зависит от результатов остальных. Второе требование выполняется, если измерения произ- ш'дсиы без систематических (одного знака) ошибок. В этом Случае математические ожидания всех случайных вели- 'iiiii одинаковы и равны истинному размеру а. Третье требование выполняется, если прибор обеспе- •пшает определенную точность измерений. Хотя при этом |нчультаты отдельных измерений различны, но рассеяние нх ограниченно. Пели все указанные требования выполнены, мы вправе применить к результатам измерений теорему Чебышева: мри достаточно большом п вероятность неравенства — а инк угодно близка к единице. Другими словами, при до- иочпо большом числе измерений почти достоверно, что |i среднее арифметическое как угодно мало отличается от in инпюго значения измеряемой величины. Пгак, теорема Чебышева указывает условия, при ко- •»|ч.1\ описанный способ измерения может быть применен. Однако ошибочно думать, что увеличивая число нзме- 1« 111[f[ можно достичь сколь угодно большой точности. Доло и)м, что сам прибор дает показания лишь с точностью I к, поэтому каждый из результатов измерений, а следо- Hi[ ii.no и их среднее арифметическое, будут получены ИНиь с точностью, не превышающей точности прибора. tot
На теореме Чебышева основан широко применяемый в статистике выборочный метод, суть которого состоит в том, что по сравнительно небольшой случайной выборке судят о всей совокупности (генеральной совокупности) исследуемых объектов. Например, о качестве кипы хлопка заключают по небольшому пучку, состоящему из волокон, наудачу отобранных из разных мест кипы. Хотя число во- волокон в пучке значительно меньше, чем в кипе, сам пучок содержит достаточно большое количество волокон, исчис- исчисляемое сотнями. В качестве другого примера можно указать на опреде- определение качества зерна по небольшой его пробе. И в этом случае число наудачу отобранных зерен мало сравнитель- сравнительно со всей массой зерна, ею само по себе оно достаточно велико. Уже из приведенных примеров можно заключить, что для практики теорема Чебышева имеет неоценимое зна- значение. § 6. Теорема Бернулли Пусть производится п независимых испытаний, в каж- каждом из которых вероятность появления события А равна р. Можно ли предвидеть какова будет примерно относитель- относительная частота появлений события? Положительный ответ на этот вопрос дает теорема, доказанная Яковом Бернулли (опубликована в 1713 г.), которая получила название «за- «закона больших чисел» и положила начало теории вероят- вероятностей как науке. Доказательство. Бернулли было слож- сложным; простое доказательство дано П. Л. Чебышевым в 1846 г. Теорема Бернулли. Если в каждом из п независимых испытаний вероятность р появления события А постоян- постоянна, то как угодно близка к единице вероятность того, что отклонение относительной частоты от вероятности р по абсолютной величине будет сколь угодно малым, если число испытаний достаточно велико. Другими словами, если е сколь угодно малое -положи- -положительное число, то прн соблюдении условий теоремы будет иметь место равенство limP Я-»-00 т п — р = 1. Доказательство. Обозначим через Xt дискрет- дискретную случайную величину. — число появлений события в первом испытании, через Х2— во втором через Хп — в п-и испытании. Ясно, что каждая из величин может принять лишь два значения: 1 (событие А наступило) с вероятностью р и О (событие не появилось) с вероятностью 1— p=q. Можно ли применить к рассматриваемым величинам теорему Чебышева? Можно, если случайные величины по- парио независимы и дисперсии их ограничены. Оба условия выпачияются. Действительно, попарная независимость ве- величин X,, Хг, .... Хп следует из того, что испытания неза- независимы. Дисперсия любой величины Xt (i=l, 2 п) равна произведению pq*, так как p+q=l, то произведение pq не превышает -^ и, следовательно, дисперсии всех вели- V 1 чин ограничены, например числом С= -^-. Применяя теорему Чебышева (частный случай) к рас- рассматриваемым величинам, имеем limP п-»со •-0 <е = Приняв во внимание, что математическое ожидание а каждой из величин X, (т. е. математическое ожидание числа появлений события в одном испытании) равно вероят- вероятности р наступления события (пример 2, стр. 68), получим limP (I \ _ -'¦ Остается показать, что дробь—¦—: равна относительной частоте — появлений события А в п исныта- 102 • Это следует из § 6, гл. VIII, если принять и = 1. •• Известно", что произведение двух сомножителей, сумма кото- которых есть величина постоянная, имеет наибольшее значение прн ра- равенстве сомножителей. Здесь сумма pi + qi = \, т.е. постоянна, поэтому при pl — ql — — произведение рд{ имеет наибольшее зиа- I ченне и равно —-. 103
ниях. Действительно, каждая из величин X,, Хг Хп при появлении события в соответствующем испытании при- принимает значение, равное единице; следовательно, сумма Xi+X2+...+Xn равна числу т появлений события в п испытаниях, а значит, п п Учитывая это равенство, окончательно получим HmPfl —-р|<в)_ 1. л.» со \| п | ] Замечание. Было бы неправильным на основании теоре- теоремы Бернулли сделать вывод, что с ростом числа испытаний относи- относительная частота неуклонно стремится к вероятности р; другими словами, из теоремы Бериулли це вытекает равенство lim H. = р. П-.ОО П В теореме речь идет лишь о вероятности того, что при до- ствточно большом числе испытаний относительная частоте будет квк угодно мало отличаться от постоянной вероятности появления события в квждом испытании. _ т Таким обрвзом, сходимость относительной чвстоты— к ве- вероятности р отличается от сходимости в смысле обычного анализа. Дли того чтобы подчеркнуть это различие, вводят понятие «сходи* мости по вероятности». Точнее, различие между указвппыми вида- т ми сходимости состоит в следующем: если — стремится при п -*¦ оо к р как пределу в смысле обычного внализв, то, нвчинвя с некоторого п = N и для всех последующих значений п. неуклои- \т \ т ио выполняется иерввенство — — р <* i если же — стремится по вероятности к р при п -*¦ оо, то для отдельных значений п не- неравенство может не выполняться. Итак, теореме Бернулли утверждвет, что при а -*¦ оо отнои- тельная частоте стремится по вероятности к р. Коротко теорему Бериулли записывают твк: т п ве?. Р Квк видим, теорема Бернулли объясняет, почему отиоситель- ивя чветота при достаточно большом числе испытаний обладает свойством устойчивости и оправдывает статистическое определение вероятности (гл. I, § 5—6). Задвчи 1. Сформулировать и звпиевть теорему Чебышева используя понятие «сходимости по вероятности» 104 того 2. Пользуясь неравенством Чебышева, оценить вероятность , что |Х - М (Х)| < 0.1, если D (X) = 0,001.^ что |Х ()| ^ 3. Дано: Р (IX - М <Х)| < *) > 0,9; D (X) = 0,004. Поль- Пользуясь неравенством Чебышева, наитн ^ ^ Глава де с я т в я ИНТЕГРАЛЬНАЯ ФУНКЦИЯ РАСПРЕДЕЛЕНИЯ ВЕРОЯТНОСТЕЙ СЛУЧАЙНОЙ ВЕЛИЧИНЫ § I. Определение интегральной функции распределения* Вспомним, что дискретная случайная величина задается перечнем всех ее возможных значении и их вероятностей. Такой способ задания не является общим: он неприменим, например, для непрерывных случайных величин. Действительно, рассмотрим случайную величину X, возможные значения которой сплошь заполняют интервал (а, Ь). Можно ли составить перечень всех возможных зна- значений X? Очевидно, что этого сделать нельзя. Этот пример указывает на целесообразность дать общий способ задания любых типов случайных величин. С этой целью и вводят интегральную функцию распределения. Пусть х — действительное число. Вероятность события, состоящего в том, что X примет значение меньшее х, т. е. вероятность события Х<х обозначим через F(x). Разу- Разумеется, если х будет изменяться, то вообще говоря, будет изменяться и F[x), т. е. F{x) есть функция от х. Интегральной функцией распределения называют функ- функцию F{x), определяющую для каждого значения х вероят- вероятность того, что случайная величина X примет значение, меньшее х, т. е. F{x)=P{X<x). Геометрически это равенство можно истолковать так: F(x) есть вероятность того, что случайная величина примет значение, которое изображается на числовой оси точкой, лежащей левее точки X. • Часто вместо термина «интегральная функция» пользуются к'рмнном «функция распределения». 105
Теперь мы можем дать более точное определение не- непрерывной случайной величины: случайную величину бу- будем называть непрерывной, если ее интегральная функция распределения F(x) непрерывно дифференцируема. § 2. Свойства интегральной функции Свойство I. Значения интегральной функции принад- принадлежат отрезку [0; И: Доказательство. Свойство вытекает из опре- определения интегральной функции как вероятности: вероят- вероятность всегда есть неотрицательное число, не превышающее единицы. Свойство 2. F(x) — неубывающая функция, т. е F (х2) > F (*,), если х2 > дг,. Доказательство. Пусть x2>*t- Событие, сос- состоящее в том, что X примет значение меньшее х2, можно подразделить на следующие два несовместных события: 1) X примет значение меньшее xt с вероятностью P(X<Xi); 2) X примет значение, удовлетворяющее неравенству X!<X<jc2, с вероятностью Р(х^Х<хД По теореме сло- сложения имеем Отсюда или Так как любая вероятность есть число неотрицательное, то F{x^—/7(x,)>0, нлй F(x^^F(xt), что и требовалось до- доказать. Следствие 1. Вероятность того, что пучайная ве- величина примет значение, заключенное в интервале (а, Ь), равна приращению интегральной функции на этом интервале: P(a<X<6)=A'F)-F(a). (**) Это важное следствие вытекает из формулы (*), если положить хг—Ь н Xi~a. Пример. Случайная величина X задана интегральной функцией: 106 0 при х<— 1; -i-xf i- ПР» -1<J«<3; 4 4 1 при х>3. Найги вероятность того, что в результате испытания X примет значение, принадлежащее интервалу @; 2) Так как на интервале @; 2) по условию I . 1 то Итак Р((ХА'<2)=4"- Следствие 2. Вероятность того, что непрерывная слу- случайная величина X примет одно определенное значение, равна нулю. Действительно, положив в формуле (**), а=хи 6= +A имеем Устремим Дх к нулю. Так как X — непрерывная случай- случайная величина, то функция F(x) непрерывна. В силу непре- непрерывности F(x) а точке Xi разность ^(Xi+Ax)—F(xi) также будет стремиться к нулю, следовательно, P(X=xl)=Q. Используя это положение, легко убедиться в справед- справедливости равенств Р(<Х<6) (***) Р(а<) Например, равенство P(a<X<6)=P(a<X<fc) дока- доказывается так: ) Таким образом, не представляет интереса юворпть о вероятности того, что непрерывная случайная величина примет одно определенное значение, но имеет смысл рас- рассматривать вероятность попадания ее в штервал, пусть даже сколь угодно малый. 107
Этот факт полиостью соответствует требованиям прак- практических задач. Например, интересуются вероятностью того, что размеры деталей не выходят за дозволенные гра- границы, но ие ставят вопроса о вероятности их совпадения с проектным размером. Заметим, что было бы неправильным думать, что равен- равенство нулю вероятности P(X=xt) означает, что событие Х=х, невозможно (если, конечно, не ограничиваться клас- классическим определением вероятности). Действительно, в ре- результате испытания случайная величина обязательно при- примет одно нз возможных значений; в частности, это значение может оказаться равным х,. Свойство 3. Если возможные значения случайной ве- величины принадлежат интервалу (а, Ь), то 1) F(x)=0 при ж<а; 2) F(x)=l при >6 Доказательство. 1) Пусть xt<a. Тогда собы- событие X<xt невозможно (так как значений меньших х, ве- лнчнна X по условию ие принимает) и, следовательно, вероятность его равна нулю. 2) Пусть *2>6. Тогда событие Х<х2 достоверно (так как все возможные значения X меньше х^) и, следователь- следовательно, вероятность его равна единице. Следствие. Если возможные значения непрерывной слу- случайной величины расположены на всей оси х, то справедли- справедливы следующие предельные соотношения: l\mF(x)=0; li § 3. График интегральной функции Доказанные свойства позволяют представить, как вы- выглядит график интегральной функции непрерывной слу- случайной величины. График расположен в полосе, ограниченной прямыми у=0, у=\ (первое свойство). При возрастании х в интервале (а, Ь), в котором заклю- заключены все возможные значения случайной величины, график «подымается вверх» (второе свойство). Прн дг<а ординаты графика равны нулю; при х>6 ор- ординаты графика равны единице (третье свойство). 108 График интегральной функции непрерывной случайной величины изображен на рис. 1. Замечание. Для дискретной случайной величины график интегральной функции имеет ступенчатый вид. Убедимся в этом на примере. Пример. Дискретная случайная величина X задана следующей таблицей распределения: X Р 1 0,3 4 0,1 8 0,6. Рис. 1. Найти интегральную функцию и вычертить ее график. Решение. Г. Если х^\, то F(x)=0 (третье свой- свойство). 2г. Если 1<х<4, то F(x)=0,3. Действительно, X мо- может принять значение 1 с вероятностью 0,3. 3°. Если 4<ж<8, то F(x)=0,4. Действительно, если Ж| удовлетворяет неравенству 4<Х|<8, то F(xt) равно ве- вероятности события X<*i, которое может быть осуществле- осуществлено, когда X примет значение I (вероятность этого события равна 0,3) или значение 4 (вероятность этого события рав- равна 0,1). Поскольку этн два события несовместны, то по теореме сложения вероятность события X<xt равна сумме вероятностей 0,3+0,1=0,4. 4°. Если х>8, то F(x)=l. Действительно, событие Х-<8 достоверно и, следовательно, его вероятность равна единице. Итак, интегральная функция аналитически может быть записана так: 109
F(x) = 0 при *<; 1, 0,3 при 1<х<4, 0,4 при 4<х<8 1 при х>8. График этой функции приведен на рис. 2. Рис. 2. Задачи 1. Саучайная величина X задана интегральной функцией: О при * < —1; F(x) — * + — при — 1 < х < 2; о о 1 при х > 2 Найтн вероятность того, что в результате испытания X примет зна» чей не. заключенное в интервале @; 1). Отв -я- . 2. Случайная величина X задана интегральной функцией 0 при х < 2; F (*) = — х— 1 при 2 < х <4i 1 при * > 4. Найти вероятность того, что в результате испытания X примет виачеиие, заключенное о интервале B; 3) Отв -j-. 3. Дискретная случайная величина X задана следующим законом распределения: X 2 6 10 р 0.5 0,4 0,1. Построить график интегральной функции этой величины 1Ш I i л одиннадцатая ДИФФ1.РЬНЦИЛЛЬНЛЯ ФУНКЦИЯ I'M ПРЕДЕЛЕН И Я ВЕРОЯТНОСТЕЙ III ПРЕРЫВНОЙ СЛУЧАЙНОЙ ВЕЛИЧИНЫ § I. Определение дифференциальной функции распределения Выше мы задавали непрерывную случайную величину при помощи интегральной функции. Этот способ задания ие является единственным. Непрерывную случайную ве- величину можно также задать, пользуясь дифференциальной функцией распределения вероятностей. Дифференциальной функцией распределения* f(x) на- называют первую производную от интегральной функции: f{x)=F'{x). ., Из приведенного определения следует, что интегральная функция является первообразной для дифференциальной функции. Заметим, что для описания распределения вероятностей дискретной случайной величины дифференциальная функ- функция неприменима. § 2. Вероятность попадания непрерывной случайной величины, в заданный интервал Зная дифференциальную функцию, можно вычислить вероятность того, что непрерывная случайная величина примет значение, прнначлежащее заданному интервалу. Вычисление основано на следующей теореме. Теорема. Вероятность того, что непрерывная случай- случайная величина X примет значение, принадлежащее интер- валу (а, Ь), равна определенному интегралу от дифферен- дифференциальной функции, взятому в пределах от а до Ь: Р{а<Х<Ь)= j f{x)dx ' Часто вместо термина «дифференциальная функция» поль- пользуются термином «плотность вероятности». 111
Доказательство. Воспользуемся соотноше- соотношением (**) (стр. 106): P(a^X<b)=F(b)-F(a). По формуле Ньютона—Лейбница ь ь F{b)-F(a)=\F\x)dx=l f(x)dx. а а Таким образом, Так как Р(а<Х<6)=Р(а<Х<6), то окончательно получим P{a<X<b)=$f(x)dx. С) Рис. 3. Геометрически полученный результат можно истолко- истолковать так: вероятность того, что непрерывная случайная величина примет значение, принадлежащее интервалу (а, Ь), равна площади криволинейной трапецин, ограниченной осью х, кривой распределения f{x) и прямыми х=а и к— =Ь (рис. 3). Замечание. В частности, если ( (к) — четная функций и концы интервала симметричны относительно начала координат, то (— а<Х <а)=Р{\Х\ <о)=2 Пример. Дана дифференциальная функция случайной величины X: 112 10 при *<0; 2х при 0<х<1; О при ж>1. Найти вероятность того, что в результате испытания X примет значение, принадлежащее интервалу @,5; I). Решение. Искомая вероятность i i Р@,5<Х<1) = 2 Г xdx = x« I =1—0,25 = 0,75. А ПК 0.8 0.S § 8. Нахождение интегральной функции распределения по известной дифференциальной функции Зная дифференциальную функцию f(x), можно найти интегральную функцию F(x) по формуле Действительно, мы обозначили через F(x) вероятность того, что случайная величина примет значение, меньше х, Очевидно, неравенство Х<х можно записать в виде двой- двойного неравенства —оо<сХ<;х, следовательно, F(x)=P(-oo<X<x). (*) Полагая в формуле (*) (§ 2) а=—со, 6=х, имеем X P(-oo<X<x)=J/(x)dx. —ев Наконец, заменив Р(—оо<Л<х) через F(x), в силу (*), окончательно получим Таким образом, зная дифференциальную функцию рас- распределения, можно найти интегральную функцию. Разу- ИЗ 5-43
меется, по известной интегральной функции может быть найдена дифференциальная функция, а именно Пример. Найтн интегральную функцию по данной диф- дифференциальной функции /(*) = О при х<о, l при b — a О при х>Ь. Построить график найденной функции. х Решение. Воспользуемся формулой F(x)= \f(x)dx. — се Если х<о, то /(х)=0 н, следовательно, F{x)=0. Если 6, то f(x)-=- -г и, следовательно, х а F(x)=\f(x)dx=[ Odx J J —о» — о» \ Если x>b, то b—a b—a f J 6 b — a Итак, искомая интегральная функция аналитически может быть записана так: Fix)- О при ^ при а<л:<6, Ь — а 1 при х>Ь. График этой функции изображен на рис. 4. § 4. Свойства дифференциальной функции Свойство 1. Дифференциальная функция неотрица- неотрицательна: /М>0. 114 _ _ __ х Рис. 4. Доказатель- г т в о. Интегральная функция есть не убы- убывающая функция, сле- следовательно, ее произ- производная F'(x)=f{x) есть функция неотрицатель- неотрицательная. Геометрически это свойство означает, что точки, принадлежащие графику дифференциальной функции, расположены либо над осью х, либо на этой О0И. Заметим, что график дифференциальной функции при- принято называть кривой распределения. Свойство 2. Несобственный интеграл от дифферен- дифференциальной функции в пределах от — оо до оо равен единице: ]f{x)dx=l. Доказательство. Несобственный интеграл выражает вероятность события, состоящего в том, что случайная величнна прнмет значение, принадлежащее интервалу (—оо, оо). Очевидно, такое событие достоверно и, следовательно, вероятность его равна единице. Геометрически это означает, что вся площадь криволи- криволинейной трапеции, ограниченной осью х и кривой распре- распределения, равна единице. В частности, если все возможные значения случайной величины принадлежат интервалу (а, Ь), то Пример. Дифференциальная функция распределения случайной величины х задана равенством Найти постоянный параметр а. Решение. Дифференциальная функцня должна удов- Б* 115
летворять условию \f(x)dx=\, поэтому потребуем, чтобы —оо выполнялось равенство dx е~х+е* = 1. Отсюда Найдем неопределенный интеграл e*dx Г—*Е Г arctge*. Вычислим несобственный интеграл оо и f —ИЦ- = lim f —— + lim Г - —оо Ь О = lim (—aretge*)+lim(arctgec) = —. 6-*— оо г-» со 2 Таким образом, искомый параметр а= ' -_- 2 § 5. Вероятностный смысл дифференциальной функции Пусть F(x) — интегральная функция непрерывной слу- случайной величины X. По определению дифференциальной функции f{x)=F'{x), или в иной форме Как мы уже знаем, разность F(x+bx)—F(x) опреде- определяет вероятность того, что X примет значение, принад- принадлежащее интервалу (х, х+Дх). ^Таким образом, предел отношения вероятности того, что непрерывная случайная 116 и «личина примет значение, принадлежащее интервалу («, х+Дх), к длине этого интервала (при Дх-*0), равен шаченню дифференциальной функции в точке х. По аналогии с определением плотности массы в точке* целесообразно рассматривать значение функции Дх) в точке х как плотность вероятности в этой точке. Итак, д|<ц^а&енциальная функция определяет плот- плотность распределения вероятности для каждой точки х. Из дифференциального исчисления известно, что при- приращение функции приближенно равно дифференциалу функции, т. е. *—F(x)~dF(x), или /Чх+Дх)—F(x)~F'(x)dx. Так как F'(x)=f(x) и dx=Ax, то F(x+Ax)—/Чх)~/(х)Дх. А Вероятностный смысл этого равенства таков: вероят- вероятность того, что случайная величина примет значение, при- принадлежащее интервалу (х, х+Дх), приближенно равна (с точностью до бесконечно малых высшего порядка относи- относительно Дх) произведению плотности вероятности в точке х на длину интервала Дх. 2, Геометрически этот результат можно истолковать так: вероятность того, что случайная величина примет значение, принадлежащее интервалу (х, х+Дх), приближенно равна площади прямоугольника с основанием Дх и высотой Дх). На рис. 5 видно, что площадь заштрихованного прямо- - угольника равна произведению Дх)Дх, лишь приближенно равна площади криволинейной трапеции (истинной ве- вероятности, определяемой определенным интегралом \ f(x)dx). Допущенная при этом погрешность равна пло- площади криволинейного треугольника ABC. * Если масса непрерывно распределена вдоль оси х по некото- некоторому закону, например F (х), то плотностью р (%) массы в точке х называют предел отношения массы интервала (х. х + Ах) к длине интервала при Дх-*¦(), т. е. р (х) = lim Дх»О ах 117
Г(') f(') § 6. Закон равномерного распределения вероятностей При решении задач, которые выдвигает практика, стал- сталкиваются с различными распределениями непрерывных случайных величин. Дифференциальные функции этих распределений называют также законами распределений. Часто встречаются, на- например, законы равно- равномерного и нормального _ распределений. В настоя- .Л"'" щем параграфе рассматри- Jg вается закон равномерно- '; го распределения. Закону \ нормального распределе- _1 - х ния посвящена следующая глава. Распределение вероят- Рис. 5. ностей называют равно- равномерным, если на интерва- интервале, которому принадле- принадлежат все возможные значения случайной величины, диф- дифференциальная фукция имеет постоянное значение. Приведем пример равномерно распределенной непре- непрерывной случайной величины. Пример. Шкала измерительного прибора проградунро- вана в некоторых единицах. Ошибку при округлении от- отсчета до ближайшего целого деления можно рассматривать как случайную величину X, которая может принимать с постоянной плотностью вероятности любое значение меж- между двумя соседними целыми делениями. Таким образом, X имеет равномерное распределение. Найдем дифференциальную функцию равномерного рас- распределения, считая, что все возможные значения случай- случайной величины заключены в интервале (а, Ь), на котором дифференциальная функция сохраняет постоянное зна- значение /(х)=С. По условию X ие принимает значений вне интервала (а, Ь), поэтому f(x)=0 при х<?а н х>Ь. Найдем значение постоянной С. Так как все возможные значения случайной величины принадлежат интервалу (а, Ь), то должно выполняться равенство \f(x)dx=l, или [Cdx=\. 118 Отсюда Ь — а Итак, закон равномерного распределения аналитически можно записать так: 0 при х —!— при а<х<6, Ь —а О прн х>Ь. График днфференциальной функцни равномерного рас- распределения изображен на рис. 6, а график интегральной функцни — на рис. 4. D | Рио. 6. Зад ачи 1. Случайная величина задана дифференциальной функцией /to О пра х < — —; a cos х при — — < * < — I О при * > — . 1 Найти коэффициент а. _ От а = -g-. 2. Случайная величина задана дифференциальной функцией 119
/(*) = при х < 0; — sin ж при 0 < х < я; О при х > я. Найти: а) интегральную функцию; б) вероятность того, что в ре- результате испытания случайная величина примет значение, заклю- заключенное в интервале @; -г-). От. a) F (х) = б) прн х < О, — A — cos х) при 0 < х < я; 1 при х > к; 3. Случайная величина X задана интегральной функцией: 10 при х < О, х прн 0 < х < 1, 1 прн х > 1. Найти дифференциальную функцию. О при х < 0. Отв. f (*) = I прн 0 < х < U О прн * > 1. 4. Случайная величина X задана интегральной функцией: при х < О, — A — cos*) приО<х<я, при х > я. Найти дифференциальную функцию. Ото. f (x) i О прн х < О, — sin х при 0 < * < г, О - прн х > п. 120 I лава двенадцатая НОРМАЛЬНОЕ РАСПРЕДЕЛЕНИЕ f I. Числовые характеристики непрерывных случайных величин Распространим определения числовых характеристик дискретных величин на величины непрерывные. Начнем с математического ожидания. Пусть непрерывная случайная величина X задана дифференциальной функцией f(x). Допустим, что все воз- возможные значения X принадлежат отрезку [а, Ь]. Разобьем этот отрезок на п частичных отрезков длиною Дх,, Дх2 Дх„ и выберем в каждом из ннх произвольную точку х, (t = 1, 2 л). Имея в виду определить математическое ожидание непрерывной величины по аналогии с дискрет- дискретной, составим сумму произведений возможных значений х, иа вероятности попадания их в интервал Дх, (напомним, что произведение Дх)Дх приближенно равно вероятиости попадания X в интервал Дх): Перейдя к пределу прн стремлении к нулю длины наиболь- наибольшего из частичных отрезков, получим определенный инте- ь грал §xf(x)dx. а Математическим ожиданием непрерывной случайной величины X, возможные значения которой принадлежат отрезку la, Ь], называют определенный интеграл: xf{x)dx. Если возможные значения принадлежат всей оси к, то Предполагается, что несобственный интеграл сходится аб- солютно, т. е. существует интеграл J | x\ f{x)dx. Если бы 121
это требование не выполнялось, то значение интеграла за- зависело бы от скорости стремлеиия (в отдельности) нижнего предела к —со, а верхнего к +со. По аналогии с дисперсией дискретной величины оп- определяется и дисперсия непрерывной величины. Дисперсией непрерывной случайной величины называют математическое ожидание квадрата ее отклонения. Если возможные значения X принадлежат отрезку la, b], то если возможные значения принадлежат всей оси х, то D(X)= f[x-M(X)?f(x)dx. Среднее квадратическое отклонение непрерывной слу- случайной величины определяется, как и для величины дискрет- дискретной, равенством Замечание I. Можно доказать, что свойства математиче- математического ожидания н дисперсии дискретных величии сохраняются я дли непрерывных величин. Замечание 2. Легко получить для вычисления диспер- дисперсии более удобиые формулы: *f(x)dx-lM(X))>, Пример. Найти математическое ожидание и дисперсию случайной величины X, заданной интегральной функцией 10 при х<0, х при 0<дс<1, 1 при х> 1. Решение. Найдем дифференциальную функцию О при *<0, /(*) = F (*) 1 приО<*<1, О при дс> I. 122 1 *• =^e "Г. Эта функции табулирована (приложение 1). Замечание 2. Интегральная функции общего нормаль- нормального распределении (гл. XI, § 3) 1 Г <*-">' о у 2it J а нормированного Фуикиия Ft (x) табулирована. Легко проверить, что Замечание 3. Вероятность попадании нормированной нормальной величины X в интервал @,х) можно найти пользуясь функцией Лапласа Ф (х) = —пг" I < §2). Р@<Х< '. Действительно (гл. XI, X X х)= \ i(x)dx = —^r- \ e Г<Ь tto Замечание 4. Учитывая, что Г <f(x)dx = 1 (гл. XI, § 4, —ее свойство 2) и, следовательно, в силу симметрии у (х) относительно нуля, о Г <( (x)dx = 0,5. а значит иР(— оо<Х<0) = 0.5. — се легко получить, что Действительно, 0,5 + Ф (дс). Р@<Х<х) =0.5+ Ф(ж>. 125
§ 3. Нормальная кривая График дифференциальной функции нормального рас- распределения называют нормальной кривой (кривой Гаусса). Исследуем функцию 1 _! — e методами дифференциального исчисления. 1. Очевидно, функция определена на всей оси лс. 2. При всех значениях х функция принимает положи- положительные значения, т. е. нормальная кривая расположена над осью х. 3. Предел функции при неограниченном возрастании х (по абсолютной величине) равен нулю: lim у =0, т. е. | дс|-»-оо ось х служит горизонтальной асимптотой графика. 4. Исследуем функцию на экстремум. Найдем первую производную: Легко видеть, что у'=0 при х=а, i/'>0 при х<а, у'<0 при х>а. Следовательно, при х=а функция имеет максимум, рав- иый ds- 5. Разность х—а содержится в аналитическом выраже- выражении функции в квадрате, т. е. график функции симмет- симметричен относительно прямой х=а. 6. Исследуем функцию на точки перегиба. Найдем вторую производную Легко видеть, что при х=а+а и х=а— а вторая произ- производная равна нулю, а при переходе через эти точки она меняет знак (в обеих этих точках значение функции равно =- ]. Таким образом, точки графика а УЧк€ ) (а —а, _--_] и (с + являются точками перегиба. а V 126 На рис. 7 изображена нормальная кривая при о=1 и о=2. § 4. Влияние параметров нормального распределения на форму нормальной кривой Выясним как влияют иа форму и расположение нормаль- нормальной кривой значения параметров а и о. i Рнс. 7. Известно, что графики функций /(*) и f{x—a) имеют одинаковую форму; сдвинув график f(x) в положительном направлении оси х иа а единиц масштаба при о>0, или в отрицательном направлении при а<0, получим график f{x—а). Отсюда следует, что изменение величи- величины параметра а (математического ожидания) и е изменяет формы нормальной кри- кривой, а приводит лишь к ее сдвигу вдоль оси х: вправо, если а возраста- возрастает и влево, если а убывает. По-иному обстоит дело, если изменяется параметр а (среднее квадратическое отклонение). Как было указано в предыдущем параграфе, максимум дифференциальной функции нормального распределения равен Т7|^ • Отсюда следует, что с возрастанием в максималь- максимальная ордината нормальной кривой убывает, а сама кривая становится более пологой, т. е. сжимается к оси х; п р и убывании о нормальная кри- кривая становится более «островершии- 127
иой»ир астягивает- ся в положитель- положительном направлении ос и у. Подчеркнем, что при любых значениях парамет- параметров айв площадь, огра- ограниченная нормальной кри- кривой и осью х, остается равной единице (гл. XI, ~~~ § 4, второе свойство диф- дифференциальной функции). На рис. 8 изображены нормальные кривые при различных значениях в и с=0. Чертеж наглядно иллюстрирует как изменение параметра в сказывается на форме нормальной кривой. Заметим, что при а=0 и ет=1 нормальную кривую 1 __?_ ц>(х)=——е 2 называют нормированной. У2 Рио. 8. § 5. Вероятность попадания в заданный интервал нормальной случайной величины Мы уже знаем, что если случайная величина X задана дифференциальной функцией /(*), то вероятность того, что X примет значение, принадлежащее интервалу (а, 0), такова: Пусть случайная величина X распределена по нормаль- нормальному закону. Тогда вероятность того, что X примет значе- значение, принадлежащее интервалу (a, 0), равна р 1 Г» (х-а)> Р) = ==^ е 5!~ их. а У In J Преобразуем эту формулу так, чтобы можно было поль- пользоваться готовыми таблицами. Введем новую переменную 12» X —tl о \ Отсюда x=az+a, dx-adz. Найдем новые пределы интегрирования. Если х=а. то z - V" : еСЛЙ Х то г = —7— • Таким образом, имеем %-а + -L- \ е—rdz^—^r \ е~тdz 1— \ е—гdz. 000 Пользуясь функцией Лапласа 1 с ** = -r \ е~ 2 dz, окончательно получим Пример. Случайная величина X распределена по нормальному закону. Математическое ожидание и среднее квадратическое отклонение этой величины соответственно равны 30 и 10. Найти вероятность того, что X примет зна- значение, принадлежащее интервалу A0, 50). Решение. Воспользуемся формулой (*). По условию а=10, g=50, с=30, <з=10, следовательно, ^) () = 2Ф B). Р A0 < X < 50) = Ф (-^ По таблице (приложение 2) находим Ф B) = 0,4772. Отсюда искомая вероятность РA0<Х<50)=2.0,4772=0,9544. 12Э
§ 6. Вычисление вероятности заданного отклонения Часто требуется вычислить вероятность того, что от- отклонение нормально распределенной случайной величины А' по абсолютной величине меньше заданного положитель- положительного числа а, т. е. требуется найти вероятность осуще- осуществления неравенства \Х—а\<а. Заменим это неравенство равносильным ему двойным неравенством или а—е<Х<а+8. Пользуясь формулой (*) (§ 5), получим Приняв во внимание равенство (функция Лапласа — нечетная), окончательно имеем В частности, при а=0 '(т)- На рис. 9 наглядно показано, что если две случайные величины нормально распределены и а—0, то вероятность принять значение, принадлежащее интервалу (—8, 6), больше у той величины, которая имеет меньшее аиачеиие а. Этот факт полностью соответствует вероятностному смыслу параметра а (в есть среднее квадратическое откло- отклонение; оно характеризует рассеяние случайной величины вокруг ее математического ожидания). Замечание. Очевидно, события, состоящие в осуществле- осуществлении неравенств \Х — а\ < 8 и \Х — а\ > Ь, — противоположные. Поэтому, если вероятность осуществления неравенства \Х — а |< Ь раина р, то вероятность неравенства \Х — а\ > Ь равна 1 — р 130 Пример. Случайная вели- чина X распределена нор- мальио. Математическое ожи- ожидание и* среднее квадрати- квадратическое отклонение X соответ- соответственно равны 20 и 10. Най- Найти вероятность того, что от- отклонение по абсолютной ве- величине будет меньше трех. Решение. Восполь- Воспользуемся формулой f{x): Рис. 9. По-условию 8=3, а=20, аг=10. Следовательно, Р (|X - 20|<3) = 2Ф(-^Л = 2Ф@,3). По таблице (приложение 2) находим Ф@,3)=0,П79. Искомая вероятность Р(\Х—20|<3)=0,2358. § 7. Правило трех сигм Преобразуем формулу (§ 6) положив 6 =at. В итоге получим Р(|Л-а|<оО = Если t=Z и, следовательно, <з/=3аг, то Р(\Х—а|<Зо)=2ФC)=2-0,49865=0,9973. т. е. вероятность того, что отклонение по абсолютной вели- величине будет меньше утроенного среднего квадратичсского отклонения, равна 0,9973. Другими словами, вероятность того, что абсолютная величина отклонения превысит утроенное среднее ква- квадратическое отклонение, очень мала, а именно равна 0,0027. Это означает, что лишь в 0,27% случаев так может произойти. Такие события, исходя из принципа невозмож- невозможности маловероятных событий, можно считать практически 131
невозможными. В этом и состоит сущность правила трех сигм: если случайная величина распределена нормально, то абсолютная величина ее отклонения от математического ожидания не превосходит утроенного среднего квадратичес- кого отклонения. На практике правило трех сигм применяется так: если распределение изучаемой случайной величины неизвестно, но условие, указанное в приведенном правиле, выполняется, то имеются основания предполагать, что изучаемая вели- величина распределена нормально; в противном случае оиа ие распределена нормально. § 8. Понятие о теореме Ляпунова Известно, что нормально распределенные случайные величины широко распространены на практике. Чем это объясняется? Ответ иа этот вопрос был дан выдающимся русским математиком А. М. Ляпуновым (центральная предельная теорема теории вероятностей). Приведем лишь следствие из теоремы Ляпунова: если случайная величина А' представляет собой сум- сумму очень большого числа взаимно независимых случайных величии, вли- влияние каждой из которых иа всю сум- сумму ничтожно мало, то А' имеет рас- распределение, близкое к нормальному. На практике наиболее часто встречаются именно такие случайные величины. Приведем пример, поясняющий сказанное. Пример. Пусть производится измерение некоторой фи- физической величины. Любое измерение дает лишь прибли- приближенное значение измеряемой величины, так как на резуль- результат измерения оказывают влияние очень многие независи- независимые случайные факторы (температура, колебания прибора, влажность и др.). Каждый из этих факторов порождает ничтожную «частную ошибку». Однако, поскольку число этих факторов очень велико, совокупное их действие поро- порождает уже заметную «суммарную ошибку». Рассматривая суммарную ошибку как сумму очень большого числа взаимно независимых частных ошибок, мы вправе заключить, что суммарная ошибка имеет рас- распределение, близкое к нормальному. Опыт подтверждает справедливость такого заключения. 132 § 9. Оценка отклонения теоретического распределения от нормального. Асимметрия и эксцесс Эмпирическим называют распределение относительных частот. Эмпирические распределения изучает математи- математическая статистика. Теоретическим называют распределение вероятностей. Теоретические распределения изучает теория вероятнос- вероятностей. В этом параграфе рассматриваются теоретические распределения. При изучении распределений, отличных от нормаль- нормального, возникает необходимость количественно оценить это различие. С этой целью вводят специальные характерис- характеристики, в частности, асимметрию и эксцесс. Для нормаль- нормального распределения эти характеристики равны нулю. Поэ- Поэтому, если для изучаемого распределения асимметрия и эксцесс имеют небольшие значения, то можно предполо- предположить близость этого распределения к нормальному. Нао- Наоборот, большие значения асимметрии и эксцесса указывают иа значительное отклонение от нормального. Как оценить асимметрию? Можно доказать, что для симметричного распределения (график такого распреде- распределения симметричен относительно прямой х=М{Х)) каждый центральный момент нечетного порядка равен нулю. Для несимметричных распределений центральные моменты не- нечетного порядка отличны от нуля. Поэтому любой из этих моментов (кроме момента первого порядка, который равен нулю для любого распределения) может служить для оценки асимметрии; естественно выбрать простейший из них, т. е. момент третьего порядка р8. Однако принять этот момент для оценки асимметрии неудобно потому, что его величина зависит от единиц, в которых измеряется случайная ве- величина. Чтобы устранить этот недостаток, ц3 делят на о3 и таким образом получают безразмерную характеристику. Асимметрией теоретического распределения называют отношение центрального момента третьего порядка к кубу среднего квадратического отклонения: Асимметрия положительна, если «длинная часть» кри- кривой распределения расположена справа от математического ожидания; асимметрия отрицательна, если «длинная часть» 133
(У) 5 кривой расположена слева от математического ожида- ожидания. Практически определя- определяют знак асимметрии по рас- х положению кривой распреде- распределения относительно моды (точки максимума дифферен- дифференциальной функции): если длинная часть кривой рас- расположена правее моды, то асимметрия положительна - (рис. 10, а), если слева — х отрицательна (рис. 10, б). Для оценки «крутости», т. е. большего или меньшего подъема кривой теоретичес- теоретического распределения по сра- сравнению с нормальной кривой, пользуются характеристи- характеристикой—эксцессом. Эксцессом теоретического распределения называют ха- характеристику, которая определяется равенством Рис. 10. Для нормального распределения -jjf =3, и, следова- следовательно, эксцесс равен нулю. Поэтому, если эксцесс не- некоторого распределения отли- отличен от нуля, то кривая этого f["} распределения отличается от !., нормальной кривой: если эк- !-»,ts,;» ¦¦,'; :> сцесс положительный, то /; \| н> кривая имеет более высо- /• \ кую и" «острую» вершину, ^i>^_ ^-^-х чем нормальная кривая (рис. 0 11. а); если эксцесс отрица- ""' тельный, то сравниваемая кри- кривая имеет более низкую и \ __ «плоскую» вершину, чем иор- _j с,<о мальная кривая (рис. 11, б). \ При этом предполагается, что '¦¦о_ нормальное и теоретическое распределения имеют одина- одинаковые математические ожи- Рис. п. даиия и дисперсии. 134 кринак § 10. Функция одного случайного аргумента и ее распределение Предварительно заметим, что далее вместо того, чтобы говорить «закон распределения вероятностей», мы будем часто говорить кратко — «распределение». Если каждому возможному значению случайной вели- величины X соответствует одно возможное значение случайной величины К, то К называют функцией случайного аргумен- аргумента X: . Г-ф(Х). Далее показано, как найти распределение функции по известному распределению дискретного н непрерывного аргумента. 1. Пусть аргумент X — дискретная случайная величина. а) Если различным возможным значениям аргумента X соответствуют различные возможные значения функ- функции Y, то вероятности соответствующих значений X и Y между собой равны. Пример I. Дискретная случайная величина X задана распределением: X 2 3 р 0,6 0,4. Найти распределение функции Y=X*. Решение. Найдем возможные значения Y: !/,=2а=4; j/2=39=9. Напишем искомое распределение К: К 4 9 р 0,6 0,4. б) Если различным возможным значениям X соответ- соответствуют значения К, среди которых есть равные между собой, то следует складывать вероятности повторяющихся значений Y. Пример 2. Дискретная случайная величина X задана распределением: X —2 2 3 р 0,4 0,5 0,1. Найти распределение функции Y—X2. Решение. Вероятность- возможного значения yt=A равна сумме вероятностей несовместных событий Х=—2, 135
Х=2, т. е. 0,4+0,5=0,9. Вероятность возможного значе- значения j/2=9 равна 0,1. Напишем искомое распределение К: К 4 9 р 0.9 0.1. 2. Пусть аргумент А' — непрерывная случайная величина. Как найти распределение функции Y = (f(X), зная дифференциальную функцию f{x) случайного аргумента А? Доказано: если у=<р(х) дифферен- дифференцируемая строго возрастающая или строго убывающая функция, обратная функция которой х=ц>(у), то диффе- дифференциальная функция g(y) случайной величины Y находится по равенству Пример 3. Случайная величина А распределена нор- нормально, причем ее математическое ожидание а=0. Найти распределение функции Y=Xa. Решение. Так как функция у=х3 дифференцируе- дифференцируема и строго возрастает, то можно применить формулу: С) Найдем функцию, обратную функции у=х9: = * = У Найдем /['{>(</)). По условию поэтому Найдем производную обратной функции по у: (**) 136 Найдем искомую дигажреициальиую функцию, для чего подставим (**) и (***) в (*): 8(У) = Замечание. Пользуясь формулой (*), можно доказать, «то линейнаи функция Y = АХ + В нормально распределенного аргумента X также распределена нормально, причем дли того чтобы найти математическое ожидание Y, надо в выражение функции под- ст'вить вместо аргумента X его математическое ожидание а: М (К) == Аа + В; для того чтобы найтн среднее квадратическое отклонение Y, надо среднее квадратнческое отклонение аргумента X умножить на мо- модуль коэффициента при X: n(Y) = \А\ . а(Х). Пример 4. Найти дифференциальную функцию линей- линейной функции К=ЗХ+1, если аргумент распределен нор- нормально, причем математическое ожидание X равно 2 и среднее квадратическое отклонение равно 0,5. Решение. Найдем математическое ожидание Y М(К)=3'2+1=7. Найдем среднее квадратическое отклонение Y в(К)=3-0,5= 1,5. Искомая дифференциальная функция имеет вид 1.5 /2п § II. Математическое ожидание функции одного случайного аргумента Задана функция К=ф(Х) случайного аргумента X. Требуется найти математическое ожидание этой функции, зная закон распределения аргумента. 1. Пусть аргумент X—дискретная случайная величина с возможными значе- значениями Хи хг хп, вероятности которых соответственно равны plt ръ р„. Очевидно, Y также дискретная слу- случайная величина с возможными значениями Yl=(f(xl), 02=<Р(*г) ?/п=ф(*и)- Так как событие «величина X приняла значение хк» влечет за собой событие «величина Y приняла значение <р(Х|)», то вероятности возможных зиа- 137
чеиий Y соответственно равны />,, рг рп- Следовательно, математическое ожидание^ функции О Пример 1. Дискретная случайная величина X задана распределением X I 3 5 р 0,2 0,5 0,3. Найти математическое ожидание функции К=ф(Х)=Ха-Н. Решение. Найдем возможные значения Y: q,(l)=|a+l=2; q>C)=34-l = 10; фE)=5а-Ы=26. Искомое математическое ожидание функции МХа+1)=2.0,2+10.0,5+26-0,3=13,2. 2. Пусть аргумент X — непрерывная случайная величина, заданная дифферен- дифференциальной функцией /(х). Для отыскания математического ожидания функции К=ф(Х) можно сначала найти диффе- дифференциальную функцию g(y) величины Y, а затем восполь- воспользоваться формулой Однако, если отыскание дифференциальной функции g(y) является затруднительным, то можно непосредственно иайти математическое ожидание функции ср(Х) по формуле oft M[ф(ХI = J <t(x)f(x)dx. В частности, если возможные значения X принадлежат интервалу (с, 6), jl<((x)f(x)dx. (**) Опуская доказательство, заметим, что оно аналогично доказательству формулы (*), если заменить суммирование интегрированием, а вероятность — элементом вероят- вероятности /(х)Дх 138 Пример 2. Непрерывная случайная величина X за- задана дифференциальной функцией /(x)=sin x в интервале @;-s-)i /M=0 вт этого интервала. Найти математическое ожидание функции К=ф(Х)=Х2. Решение. Воспользуемся формулой (**). По усло- условию /(x)=sin х, (f(x)=x*. c=0, 6 = -j-. Следовательно, *  M[(f(X)]= f x'sinxd*. Интегрируя по частям, получим искомое математическое ожидание М[Х*] = я — 2. § 12. Функция двух случайных аргументов. Распределение суммы независимых слагаемых. Устойчивость нормального распределения Если каждой ларе возможных значений случайных величии X и К соответствует одно возможное значение случайной величины Z, то Z называют функцией двух слу- случайных аргументов X и К: Далее иа примерах будет показано, как иайти рас- распределение функции Z=X+Y по известным распределениям слагаемых. Такая задача часто встречается иа практике. Например, если X — погрешность показаний измерительного прибора (распре- (распределена нормально), Y — погрешность округления пока- показаний до ближайшего деления шкалы (распределена рав- равномерно), то возникает задача — иайти закон распреде- распределения суммы погрешностей Z=X-fK. 1. Пусть X и У — дискретные незави- независимые случайные величины. Для того чтобы составить закон распределения функции Z—X+Y, надо иайти все возможные значения Z и их вероятности. 139
Пример I. Дискретные независимые случайные вели- величины заданы распределениями: X 1 2 К 3 4 р 0,4 0.6 р 0,2 0,8. Составить распределение случайной величины Z=X+Y. Решение. Возможные значения Z есть суммы каждо- каждого возможного значения X со всеми возможными значе- значениями К: zt=1+3=4; z2= 1+4=5; г3=2+3=5; г,=2+4=6. Найдем вероятности этих возможных значений. Для того чтобы Z=4, достаточно, чтобы величина X приняла зна- значение АГ|=1 и величина К — значение j/i=3. Вероятности этих возможных значений, как следует из данных законов распределения, соответственно равны 0,4 и 0,2. Так как аргументы X и Y независимы, то события Х= = 1 и К=3 независимы и, следовательно, вероятность их совместного наступления (т. е. вероятность события Z=l+3=4) по теореме умножения равна 0,4-0,2=0,08. Аналогично найдем: P(Z=l+4=5)=0,4-0,8=0,32; P(Z=2+3=5)=0,6-0,2=0,12; P(Z=2+4=6)=0,6-0,8=0,48. Напишем искомое распределение, сложив предвари- предварительно вероятности несовместных событий Z=z2, Z=zs @,32+0,12=0,44): Z Р 4 0,08 5 0,44 6 0,48. Контроль: 0.08+0,44+0,48=1. 2. Пусть X и К — непрерывные случай- случайные величины. Доказано: если X и Y независимы, то дифференциальная функция g(z) суммы Z=X+Y (прн условии, что дифференциальная функция хотя бы одного из аргументов задана на интервале (—«>, ео)одной форму- формулой) может быть найдена по равенству gB) = J f1(x)ft{z-x)dx (*) 140 либо по равносильному равенству - ffi(*-y)fAv)dy, (**) где f\, /z— дифференциальные функции аргументов. Если возможные значения аргументов неотрицательны, то g(z) находят по формуле либо по равносильной формуле Дифференциальную функцию суммы независимых слу- случайных величин называют композицией. Закон распределения вероятностен называют устой- устойчивым, если композиция таких законов есть тот же закон (отличающийся, вообще говоря, параметрами). Нормальный закон обладает свойством устойчивости: композиция нор- нормальных законов также имеет нормальное распределение (математическое ожидание и дисперсия этой композиции равны соответственно суммам математических ожиданий и дисперсий слагаемых). Например, если X и Y — незави- независимые случайные величины, распределенные нормально с математическими ожиданиями и дисперсиями, соответствен- соответственно равными ai=3, сг=4, D,= l, D2=0,5, то композиция этих величин (т. е. дифференциальная функция суммы Z—X+Y) также распределена нормально, причем матема- математическое ожидание и дисперсия композиции соответственно равны с=3+4=7; D = l+0,5=l,5. Пример 2. Независимые случайные величины X и Y заданы дифференциальными функциями: —je 3 @<ж<оо); 1 -4 Найти композицию этих законов, т. е. дифференциальную функцию случайной величины Z—X+У. 141
Решение. Так как возможные значения аргументов неотрицательны, воспользуемся формулой (***) g (?) = = _L e * \ е i2dx = e * f I — е |21. Заметим, что здесь z!>0, так как Z=X+Y и по условию возможные значения X и Y неотрицательны. Рекомендуем читателю для контроля убедиться, что JgB)d2 = l. В следующих далее параграфах кратко описаны рас- распределения, связанные с нормальным, которые будут ис- использованы при изложении математической статистики. § 13. Распределение х9 Пусть Х| (»=1, 2, ..., п) — нормальные независимые случайные величины, причем математическое ожидание каждой из них равно нулю, а среднее квадратическое от- отклонение — единице. Тогда сумма квадратов этих величин распределена по закону у2 («хи квадрат») с k=n степенями свободы; если же эти величины связаны одним линейным соотношением, например 2Xi=nX, то число степеней сво- свободы k=n— 1. Дифференциальная функция этого распределения О •(т) при х < О, при x>0, 142 где Г (х) = f 1х~*е~*<11 — гамма-функция; в частности о Отсюда видно, что распределение «хи квадрат» опре- определяется одним параметром — числом степеней свободы k. С увеличением числа степеней свободы распределение медленно приближается к нормальному. § 14. Распределение Стьюдента 1 Пусть Z — нормальная случайная величина, причем M{Z)—Q, ar(Z)=l, a V — независимая от Z величина, которая распределена по закону х* с k степенями свободы. Тогда величина Т = Г ft (*) имеет распределение, которое называют ^-распределе- ^-распределением, или распределением Стьюдеита (псевдоним англий- английского статистика В. Госсета) с k степенями свободы. Итак, отношение нормированной нормальной величины к квадратному корню из независимой случайной величины, распределенной по закону «хи квадрат» с k степенями сво- свободы, деленной на k, распределено по закону Стьюдеита ck степенями свободы. С возрастанием числа степеней свободы распределение Стьюдента быстро приближается к нормальному. Допол- Дополнительные сведения об этом распределении приведены далее (гл. XV, § 16). § 15. Распределение F Фишера—Снедекора Если U и V независимые случайные величины, распре- распределенные по закону х2 со степенями свободы kt и k2, то величина и ft, (*) 149
имеет распределение, которое называют распределением F Фишера — Снедекора со степенями свободы kt н k2 (иногда его обозначают через Vs). Дифференциальная функция /(*) = О при х<0, при дс>0, где Со = Мы видим, что распределение F определяется двумя параметрами — числами степеней свободы. Дополнитель- Дополнительные сведения об этом распределении приведены далее (гл. XVIII, § 8). Задачи I. Найти математическое ожидание н дисперсию случайной величины X, зиая ее дифференциальную функцию: а) / (*) ных значениях х; 1 б) f (*) прн — I < х < 1, / (х) = 0 при осталь- при а — I < х < а + I. / (*) = О при остальных значениях х. Отв. а) М (X) = 0. D (X) = — s б) М (X) = a, DX = — . 2 о 2. Случайная величина X распределена нормально. Математи- Математическое ожидание н среднее квадратнческое отклонение этой вели- величины соответственно равны 6 и 2. Найти вероятность того, что в результате испытания X примет значение, заключенное в интерва- интервале D; 8). Отв. 0,6826. 3. Случайная величина распределена нормально. Среднее квадратическое отклонение этой величины равно 0,4. Найтн ве- вероятность того, что отклонение случайной величины от ее матема- математического ожидания по абсолютной величине будет меньше 0,3. Отв 0.5468. 144 4. Случайные ошибки измерения подчинены нормальному закону со средним квадратнческим отклонением а = 1 мм и мате матнческнм ожиданием а= 0. Найтн вероятность того, что нз двух независимых наблюдений ошибка хотя бы одного из них ие прев- превзойдет по абсолютной величине 1.28 мм. Отв 0,96. 5. Валики, изготовляемые автоматом, считаются стандартными, если отклонение диаметра валика от проектного размера не превы- превышает 2 мм. Случайные отклонении диаметра валиков подчиняются нормальному закону со средним квадратическим отклонением а = = 1,6 мм н математическим ожиданием а» 0 Сколько процентов стандартных валиков изготовляет автомат? Отв. Примерно 79%. 6. Дискретная случайная величина X задана законом рас- распределения: а) X р 1 0 ,2 2 0,1 3 0 .7; б) X Р —1 0.1 1 0.2 2 0.7 Найти закон распределения случайной величины Y = X*. Отв. а) У I 16 81 б) Y 1 16 р 0.2 0.1 0.7; р 0,3 0.7. 7. Непрерывная случайная величина X аадаиа дифференци- дифференциальной функцией / (х). Найтн дифференциальную функцию g{y) йй У, фу / случайной величины а) У = X + I б) если: (-оо < х < оо): <—а<х< а). Отв Y = 2Х а) g {у) = f (р—1) (—00 < у< оо); в) в (й-у/(¦}•)¦ (—2в < у < 2а). 8. Независимые дискретные случайные величины заданы сле- следующими законами распределении: X 2 3 5 У I 4 р 0.3 0.5 0.2; р 0,2 0.8. Найти законы распределения функций: a) Z = X + К; б) Z = XY. Отв a) Z 3 4 6 7 9 р 0.06 0,10 0,28 б) 2 2 3 5 р 0.06 0,10 0.04 б. Независимые случайные величины X я Y ааданы дифферен- дифференциальными функциями: 0.40 8 0.24 0.16; 12 0.40 20 0.16. М*)' ¦¦I-' /.M--J-. @ < х < оо); @ < у < оо) . 6-43 145
Найти композицию этих законов, т. е. шло случайной величины Z = X + Y. Отв. g (г) = диффереицнальиуко функ- при г > 0; при г < 0- Глава тринадцатая ПОКАЗАТЕЛЬНОЕ РАСПРЕДЕЛЕНИЕ § I. Определение показательного распределения Показательным (экспоненциальным) называют распре- распределение вероятностей, которое описывается дифферен- дифференциальной функцией /(*) = О при дс<0, при х>0, где X — постоянная положительная величина. Мы вндим, что показательное распределение опреде- определяется одним параметром К. Эта особенность показа- показательного распределения указывает на его преимущество, по сравнению с распределениями, зависящими от большего числа параметров. Обычно параметры неизвестны н при- приходится находить их оценки (приближенные значения); разумеется, проще оценить один параметр, чем два, или три' и т. д. Примером непрерывной случайной величины, распре- распределенной по показательному закону, может служить время между появлениями двух последовательных событий простейшего потока (см. § 5). Найдем интегральную функцию показательного рас- распределения (гл. XI, § 3). 146 Мы определили показательное распределение при по- помощи дифференциальной функции; ясно, что его можно оп- определить, пользуясь интегральной функцией. Графики дифференциальной и интегральной функций изображены на рис. 12. Пример. Написать дифференциальную и интегральную функции показательного распределения, если параметр Решение. Очевидно, Дх)=8 ег** при х>0; /(х)=0 при х<0; F(x)=l—er*\ Рнс. 12. § 2. Вероятность попадания в заданный интервал показательно распределенной случайной величины Найдем вероятность попадания в интервал (а, Ь) не- непрерывной случайной величины X, распределенной по показательному закону, заданному интегральной функцией Воспользуемся формулой (гл. X, § 2, следствие 1) P(a<X<b)=F(b)—F{a). Учитывая, что F(a)=l—e~ax, F (b)=l—e~bJi, получим P{a<X<b)=e-tu—e~bx. (*) Значения функции е~* находят по таблице. Пример. Непрерывная случайная величина X распре- распределена по показательному закону f(x)=2e-u при х>0; /(*)=0 при х<0. 6- 147
Найти вероятность того, что в результате испытания X попадет в интервал @,3; 1). Решение. По условию Х=2. Воспользуемся форму- формулой (*): = 0,54881— 0,13534 ~ 0,41. § 3. Числовые характеристики показательного распределения Пусть непрерывная случайная величина X распреде- распределена по показательному закону 0 при х < 0, при дс>0. Найдем математическое ожидание (гл. XII. § 1): «HI- М (X) = (х{ (х) dx = X f Интегрируя по частям, получим dx. Таким образом, математическое ожида- ожидание показательного распределения равно обратной величине парамет- параметра X. Найдем дисперсию (гл. XII, § 1): D (X) = f x*f (x) dx - [М (X)? = \ f A"** dx —. о о Интегрируя по частям, получим Следовательно, 148 Найдем среднее квадратическое отклонение, для чего извлечем квадратный корень из дисперсии: „(x,-JL. Сравнивая (*) и (**), заключаем, что (**) т. е. математическое ожидание и сред- среднее квадратическое отклонение по- показательного распределения равны между собой. Пример. Непрерывная случайная величина X распре- распределена по показательному закону прн )=0 при х<0. Найтн математическое ожидание, среднее квадратическое отклонение и дисперсию X. Решение. По условию Х=5. Следовательно, М(Х) ¦ 0,2; Замечание 1. Пусть на практике изучается показатель, но распределенная случайная величина, причем параметр X ненз. вестей. Если математическое ожидание также неизвестно, то нахо. дят его оценку (приближенное значение), в качестве которой прн. ннмают выборочную среднюю х (гл. XVI, § 5). Тогда приближенное аначенне параметра X находят по равенству Замечание 2. Допустим, что имеются основания пред- предположить, что изучаемая на практике случайная величина имеет показательное распределение. Для того чтобы проверить эту ги- гипотезу, находят оцеики математического ожидания и средиего квад- ратического отклонения, т. е. находят выборочную среднюю н вы- выборочное среднее квадратнческое отклонение (гл. XVI, § 5, 9). Поскольку математическое ожидание и среднее квадратическое отклонение показательного распределения равны между собой, их оценки должны различаться незначительно. Если оценки ока- окажутся близкими одна к другой, то данные наблюдений подтверж- подтверждают гипотезу о показательном распределеинн изучаемой величины; 149
если же оценки различаются существенно, то гипотезу следует от- отвергнуть. Показательное распределение широко применяется в при- приложениях, в частности, в теории надежности, одним нз основных понятий которой является функция надежности. § 4. Функция надежности Будем называть элементом некоторое устройство, неза- независимо от того «простое» оно, или «сложное». Пусть элемент начинает работать в момент времени /0=0, а по истечении времени длительностью / происходит отказ. Обозначим через Т непрерывную случайную величину — длительность времени безотказной работы элемента. Если элемент проработал безотказно (до наступления отказа) время, меньшее чем t, то, следовательно, за время длитель- длительностью t наступит отказ. Таким образом, интегральная функция F(t)=P{T<() определяет вероятность отказа за время дли- длительностью t. Следовательно, вероятность безотказной ра- работы за это же время, длительностью t, т. е. вероятность противоположного события T>t, равна R(t)=P(TX)=l-F{t). (*) Функцией надежности R(t) называют функцию, опре- определяющую вероятность безотказной работы элемента за время длительностью <:^ = P(T>t). § 5. Показательный звкон надежности Часто длительность времени безотказной работы эле- элемента имеет показательное распределение, интегральная функция которого F(f)=l — e~u. Следовательно, в силу соотношения (*) предыдущего пара- параграфа, функция надежности, в случае показательного 150 распределения времени безотказной работы элемента, имеет вид R(t) = 1 _ F @ = 1 — A - е~") = е~". Показательным законом надежности называют функцию надежности, определяемую равенством где К — интенсивность отказов. Как следует из определения функции надежности (§ 4), эта формула позволяет найти вероятность безотказной работы элемента на интервале времени, длительностью t, если время безотказной работы имеет показательное распределение. Пример. Время безотказной работы элемента распре- распределено по показательному закону f(t)=0,G2 е-0-02* прн t%& (t — время в часах). Найти вероятность того, что элемент проработает безотказно 100 часов. Решение. По условию постоянная интенсивность отказов Х=0,02. Воспользуемся формулой (*): R A00) = е'02 ¦т = <г* = 0,13534. Искомая вероятность того, что элемент проработает безотказно 100 ч, приближенно равна 0,14. Замечание. Если отказы элементов в случайные моменты времени образуют простейший поток, то вероятность того, что за врем и длительностью t не наступит пн одного отказа (гл. VI, § 6) что согласуется с равенством (*), поскольку \ в обеих формулах имеет одни и тот же смысл (постоянная интенсивность отказов). § 6. Характеристическое свойство показательного закона надежности Показательный закон надежности весьма прост и удо- удобен для решения задач, возникающих на практике. Очень многие формулы теории надежности значительно упро- упрощаются. Объясняется это тем, что этот закон обладает следующим важным свойством: вероятность безотказной работы элемента на интервале времени длительностью t не зависит от времени предшествующей работы до на- начала рассматриваемого интервала, а зависит только от 151
длительности времени t (при заданной интенсивности отказов X). Для доказательства свойства введем обозначения собы- событий: А — безотказная работа элемента на интервале (О, Q длительностью 10; В — безотказная работа на интервале (f0, to+f) длитель- длительностью t. Тогда А В — безотказная работа на интервале (О, to+f) длительностью to+t. Найдем вероятности этих событий по формуле (*) (§5): P (AB) = e . + о _ Найдем условную вероятность того, что элемент будет работать безотказно на интервале (/0, to+t) прн условии, что он уже проработал безотказно иа предшествующем интервале @, t0) (гл. III, § 5, замечание 2): Р (В) = \HDi _ g е _ g—« * РМ) «-"• Мы видим, что полученная формула не содержит t0, а содержит только t. Это н означает, что время работы иа предшествующем интервале не сказывается на величине вероятности безотказной работы на последующем интер- интервале, а зависит только от длины последующего интервала, что н требовалось доказать. / Полученный результат можно сформулировать несколь- несколько иначе. Сравнив вероятности Р(В)=е-и и Рл(В) = =е~и , заключаем: условная вероятность безотказной ра- работы элемента на интервале длительностью t, вычисленная в предположении, что элемент проработал безотказно на предшествующем интервале, равна безусловной вероят- вероятности. Итак, в случае показательного закона надежности, безотказная работа элемента «в прошлом» не сказывается на величине вероятности его безотказной работы «в бли- ближайшем будущем». Замечание- Можно доказать, что рассматриваемым свой- свойством обладает только показательное распределение. Поэтому, если на практике нзучаемаи случайная величина этим свойством обладает, то она распределена по показательному закону. Напрн- 152 мер, прн допущении, что метеориты распределены равномерно в пространстве и во времени, — вероятность попадания метеорита в космический корабль не зависит от того, попадали или не попада- попадали метеориты в корабль до начала рассматриваемого интервала времени. Следовательно, случайные моменты времени попадания метеоритов в космический корабль распределены по показательно- му закону. Задачя 1. Написать дифференциальную и интегральную функции по- показательного распределения, если параметр V = 5. Отв. f (ж) = бе"** прн ж>0. Их) — 0 прн х < 0) F(x) = 1-*"**. 2. Непрерывная случайная величина X распределена по яо- казательному закону: / (х) = бе* пря х > 0. / (х) = 0 яри х < 0. Найтн вероитиость того, что в результате испытания X яо- падет в интервал @.4; 1) Оть. Р @,4 < X < 1) - = 0.13. 8. Непрерывная случайная величина X распределена по пока- показательному закону / (ж) = 4е~4* (* > 0). Найти математическое ожидание, среднее квадратнческое отклонение н дисперсию X. Отв. М (X) = o\XJ - 0,25; D (X) = 0,0625. 4. Время безотказной работы элемента распределено по яока- зательному закону f (i) = 0.01 • е~°-ои (t > 0), где /—время в часах. Найтн вероятность того, что влемент проработает безотказ- безотказно 100 ч. - Отв. R A00) = 0,37. Глава четырнадцатая СИСТЕМА ДВУХ СЛУЧАЙНЫХ ВЕЛИЧИН § 1. Понятие о системе нескольких случайных величии До сих пор рассматривались случайные величины, возможные значения которых определялись одним числом. Такие величины называют одномерными. Например, число очков, которое может выпасть при бросании игральной кости — дискретная одномерная величина; расстояние от орудия до места падения снаряда — непрерывная одно- одномерная случайная величина 153
Кроме одномерных случайных величин, изучают вели- величины, возможные значения которых определяются двумя, тремя, ..., п числами. Такие величины называются соот- соответственно двумерными, трехмерными, ..., п-мериыми. Будем обозначать через (X, Y) двумерную случайную величину. Каждую из величии X и Y называют составляю- составляющей (компонентой); обе величины X и Y, рассматриваемые одновременно, образуют систему двух случайных величин. Аналогично л-мериую величину можно рассматривать как систему п случайных величин. Например, трехмерная ве- величина (X, Y, Z) определяет систему трех случайных ве- величин X, Y и Z. Пример. Станок-автомат штампует стальные плитки. Если контролируемыми размерами являются длина X и ширина Y, то имеем двумерную случайную величину (X, К); если же контролируется и высота Z, то имеем трех- трехмерную величину (X, Y, Z). Двумерную случайную величину (X, Y) геометрически можно истолковать либо как случайную точку М(Х, Y) на плоскости (т. е. как точку со случайными координатами), либо как случайный вектор ОМ. Трехмерную случайную величину геометрически можно истолковать как точку М(Х, Y, Z) в трехмерном пространстве, или как вектор ОМ. Целесообразно различать дискретные (составляющие этих величии дискретны) и непрерывные (составляющие этих величин непрерывны) многомерные случайные вели- величины, у § 2. Закон распределения вероятностей дискретной двумерной случайной \ величины Законом распределения дискретной двумерной случай- случайной величины называют перечень возможных значений этой величины (т. е. пар чисел (xt, у) и нх вероятностей р(х,, yj) (f=l, 2 п; /=1, 2, .... т). Обычно закон распреде- распределения задают в виде таблицы с двойным входом (табл. 2). Первая строка таблицы содержит все возможные зна- значения составляющей X, а первый столбец — все возможные значения составляющей Y. В клетке, стоящей на пересе- пересечении «столбца х{» и «строки ул, указана вероятность P(xi> У/) того, что двумерная случайная величина примет значение (х(> у}). 154 Таблица 2 i v "> „ У/ j ч | Ут Р(х,. I/,) ... Р(Хх.У,) Р(ХхУт) Р(хг, (/,) Р (хг. у/) Р (*г. Ут) '1 P(xt. I/O Р(х,, у/) ... PiXl.lJm) ... ... "п Р (*„¦</.) ... Р (*п. У)) Р(хп.ут'\ Так как события (X=xit Y=yj), (t=l, 2, .... п; j= — \, 2 т) образуют полную группу (гл. II, § 2), то сумма вероятностей, помещенных во всех клетках таблицы, равна единице. Зная закон распределения двумерной дискретной слу- случайной величины, можно иайти законы распределения каж- каждой из составляющих. Действительно, например события, (Х=х,; Y=yd, (X=x,; Y=y2) (Х=дс,; Y=ym) несов- несовместны, поэтому вероятность Р(ж,) того, что X примет зна- значение х,, по теореме сложения такова: Р(дс,)=р(дс,, yt)+p{xt, уД+ ... +p(xv ут). Таким образом, вероятность того, что X примет зна- значение xt, равна сумме вероятностей «столбца xt». В общем случае для того, чтобы, найти вероятность P(X=xt), надо просуммировать вероятности столба xt. Аналогично сложив вероятности «строки yj», получим вероятность P(Y =yj). Пример. Найти законы распределения составляющих двумерной случайной величины, заданной законом распре- распределения (табл. 3). j yt '. 'Л 0 0 ¦*• ,10 .06 0 0 Таблица Хш ,30 .18 х. 0.20 0.16 i Решение. Сложив вероятности по столбцам, полу- получим вероятности возможных значений X: p(xi)=0,16; 153
_)—0,48", р(х3)=0,36. Напишем закон распределения сос- составляющей X: X Xi X2 Х3 р 0,16 0,48 0,36. Контроль: 0,16+0,48+0,36=1. Сложив вероятности по строкам, получим вероятности возможных значений Y: p(t/,)=0,60; рО/г)=0,40. Напишем закон распределения составляющей Y: Y \)\ Уг р 0,60 0,40. Контроль: 0,60+0,40=1. § 3. Интегральная функция распределения двумерной случайной величины Рассмотрим двумерную случайную величину (X, Y) (безразлично дискретную или непрерывную). Пусть х, у — пара действительных чисел. Вероятность события, состоящего в том, что X примет значение, меньше х, и при этом Y примет значение, меньшее у, обозначим через F(x, у). Если хну будут изменяться, то, вообще говоря, будет изменяться и F{x, у), т. е. F {х, у) есть функция от хну. Интегральной функцией распределения двумерной слу- случайной величины (X, Y) называют функцию F(x, у), оп- определяющую для каждой пары чисел х, у вероятность того, что X примет значение, меньшее х и при этом Y прн- 1L мет значение, меньшее у: __j..x) F(x. j/)=P(X<x, Y<y). ] - Геометрически это равен- j_ ство можно истолковать так: 0; : "' F{x, у) есть вероятность того, что случайная точка (X, Y) попадет в бесконеч- бесконечный квадрант с вершиной (х, | у), расположенный левее н ниже этой вершины (рис. 13). Пример. Найти вероят- Рис. 13. ность того, что в резу л ь- 156 тате испытания составляющая X двумерной случайной величины (X, Y) примет значение Х<2 и при этом составля- составляющая Y примет значение К<3, если известна интегральная функция системы Решение. По определению интегральной функции двумерной случайной величины F(x, y)=P(X<x, Y<y). Положив х=2, у=3, получим искомую вероятность Р(Х<2, У<3) = FB. 3)= 9 16 § 4. Свойства интегральной функции двумерной случайной величины Свойство I. Значения интегральной функции удовлет- удовлетворяют двойному неравенству у)<\. . Доказательство. Свойство вытекает из опре- определения интегральной функции как вероятности: вероят- вероятность всегда неотрицательное число, не превышающее единицу. Свойство 2. F(x, у) есть неубывающая функция по кож' дому аргументу, т. е. Р(*г. y)>F{Xi, у), если *2>*,; F(x. Vz»F{x, у,), если уг>У1- Доказател ьство. Докажем, что F(x, у) есть неубывающая функция по аргументу х. Событие, состоя- состоящее в том, что составляющая примет значение, меньшее х2, и при этом составляющая Y<y, можно подразделить на следующие два несовместных события: 1) X примет значение, меньшее хи и при этом Y<y с вероятностью Р(Х<хь Y<.y); 157
2) X примет значение, удовлетворяющее неравенству х»<Х<хг, и при этом Y<y с вероятностью P(*|<X<x2, У<У)- По теореме сложения имеем Р(Х<х2, Y<y)=P(X<xit Y<y)+Р(х,< X <хъ, Y<y). Отсюда Р(Х<хг, Y<y)-P(X<xlt Y<y)=P(xt^X<Xi, Y<y). или /4*2, y)-F(xt, j/)=P(*,<X<x2, Y<y). Так как любая\ вероятность есть число неотрицательное, то /4*2. y)—F(xu «/)>0, или П*ь У)>Р(хи у), что н требовалось доказать. Свойство становится наглядно ясным, если восполь- воспользоваться геометрическим истолкованием интегральной функции как вероятности попадания случайной точки в бесконечный квадрант с вершиной (х, у) (рнс. 13). При воз- возрастании х правая граница этого квадранта сдвигается вправо; при этом вероятность попадания случайной точ- точки в «новый» квадрант, очевидно, не может уменьшиться. Аналогично доказывается, что F(x, у) есть неубываю- неубывающая функция по аргументу у. . Свойство 3. Имеют место предельные соотношения: 1) F(-~. y)=0, 2) F(x, -~)=0, 3) f(_oo, -оо)=0, 4) F (оо, оо)=1. Доказательство. I) F(— оо, у) есть вероятность события Х<—оо и Y<y\ но такое событие невозможно (поскольку невозможно событие Х<—оо), следовательно, вероятность этого события равна нулю. Свойство становится наглядно ясным, если прибегнуть к геометрической интерпретации: при х-»-— оо правая гра- граница бесконечного квадранта (рнс. 13) неограниченно сдви- сдвигается влево и при этом вероятность попадания случайной точки в квадрант стремится к нулю. 2) Событие У<—со невозможно, поэтому F(x, — оо)=0. 153 3) Событие Х<—оо н К<—оо невозможно, поэтому F{— со, — со)=0. 4) Событие Х<» и К<« достоверно, следовательно, вероятность этого события F(<x>, оо)=1. Свойство становится наглядно ясным, если принять во внимание, что при *-»-со и у-*<х> бесконечный квадрант (рнс. 13) превращается во всю плоскость XOY и, следова- следовательно, попадание случайной точки (X, Y) в эту плоскость в результате испытания есть достоверное событие. Свойство 4. а) При j/=» интегральная функция сис- системы становится интегральной функцией составляющей X: F(x, »)=f,(x). б) При х= со интегральная функция системы становится интегральной функцией составляющей Y:, F(o°. y)=F2(y). Доказательство, а) Так как событие К< оо до- достоверно, то F(x, оо) определяет вероятность события Х<х, т. е. представляет собой интегральную функцию составляющей X. б) Доказывается аналогично. § 5. Вероятность попадания случайной точки в полуполосу Пользуясь интегральной функцией системы случайных величин X н Y, легко найтн вероятность того, что в резуль- результате испытания случайная точка попадает в полуполосу х,<Х<хг и Y<y (рис. 14, а), или в полуполосу Х<* и yt<Y<y2 (рис. 14, б). Вычитая нз вероятности попадания случайной точки в квадрант с вершиной (х2, у) вероятность попадания точки в квадрант с вершиной (xt, у) (рнс. 14, а) получим P(Xi<X<x2, Y<y)=F(x2, y)-F(xlt у). Аналогично имеем z)-F(x, yt). Таким образом, вероятность попадания случайной точки в полуполосу равна приращению интегральной функции по одному из аргументов. 159
§ 6. Вероятность попадания случайной точки в прямоугольник Рассмотрим прямоугольник ABCD со сторонами, па* раллельнымн координатным осям (рнс. 15). Пусть уравнения сторон таковы: a) г,-—-х Л J У-' I Найдем вероятность по- попадания случайной точки (X, К) в этот прямоугольник. Искомую вероятность можно найти, например, так: из вероятности попадания слу- чайной точки в полуполосу А В с вертикальной штри- штриховкой (эта вероятность рав- равна F(x2, yz)—F(xlt y^ вы- вычесть вероятность попадания точки в полуполосу CD с го- горизонтальной штриховкой (эта вероятность равна -И*г, Уг)-1 Рис- '4 Пример. Найтн вероят- вероятность попадания случайной точки (X, Y) в прямоугольник, ограниченный прямыми х = -j-, х= -?- р = -^-, ^ = -L, если известна ннтег- ральиая функция F[x, y) = swx- Решение. Положив ж, = -^- = —, ул= —, 160 у = — в формуле (*), получим: 3 -Кт- т)]-Кт- т)-'(т- т)] С1*,:у, о («.-:/,) I I Рис. 15. .JL.sm-^-sin — sin-^- - sin-^-sin- ^ j=[-2 2 Г\ L 2 2 J L 2 = 0,08. § 7. Дифференциальная функция непрерывной двумерной случайной величины (двумерная плотность вероятности) Мы задавали двумерную случайную величину при помо- помощи интегральной функции. Непрерывную двумерную вели- величину можно также задать, пользуясь дифференциальной функцией распределения. Здесь и далее мы будем предпола- предполагать, что интегральная функция всюду непрерывна и имеет всюду (за исключением, быть может, конечного числа крн- 161
вых) непрерывную смешанную частную производную второго порядка. Дифференциальной функцией^ распределения f(x, у) дву- двумерной непрерывной случайной величины (X, Y) назы- называют вторую смешанную частную производную от инте- интегральной функции: дхду Геометрически эту функцию можно истолковать как по- поверхность, которую называют поверхностью распределения. Пример. Найти дифференциальную функцию f(x, у) системы случайных величин (X, Y) по известной интеграль- интегральной функции F(x, у) = sin* • sin у Р е ш е и и е. По определению дифференциальной функ- функции системы случайных величии f(x.y) дхду Найдем частную производную по х от интегральной функции dF = cos x • sin у. дх Найдем от полученного результата частную производ- производную по у. в итоге чего получим искомую дифференциаль- дифференциальную функцию Пх>у) " = cosx'cosy (°<ДС<Т' § 8. Нахождение интегральной функции распределения по известной дифференциальной функции Зная дифференциальную функцию f(x, у), можно найти интегральную функцию F(x, у) по формуле ' J ff(x,y)dxdy. что непосредственно следует циальной функции. из определения дифферен- дифферен162 Пример. Найти интегральную функцию распределения двумерной случайной величины по данной дифференциаль- ной функции f (х, у) = Решение. Воспользуемся формулой F(x,y)= [ f f(x,y)dxdy. Рис. 16. Положив здесь f (x, у) = ¦ получим ~ 1Г IГТ7 (aret8 * + Т "Г агс'6 * § 9. Вероятностный смысл дифференциальной функции двумерной случайной величины Вероятность попадания случайной точки (X, Y) в прямоугольник ABCD (рис. 16) равна (§ 6) )B yj -Fib. ?/•)!• 163
Обозначив для краткости левую часть равенства через Pabcd и применив к правой части теорему Лагранжа, получим AI3CD F" E, ч) где Отсюда или г> А* = х2 — xv авС1> О Приняв во внимание, что произведение Д*-Д(/ равно площади прямоугольника ABCD, заключаем: /(;, tj) есть отношение вероятности попадания случайной точки в пря- прямоугольник ABCD к площади этого прямоугольника. Перейдем теперь в равенстве (••) к пределу приДд:-».О н Д#-*0. Тогда Ь-*-х, ч±+.у и, следовательно, /(Е, т))-»-/(л:, у). Итак, функцию /(*, «/) можно рассматривать как предел отношения вероятности попадания случайной точки в пря- прямоугольник (со сторонами Д* и Д«/) к площади этого пря- прямоугольника, когда обе стороны прямоугольника стремятся к нулю. § 10. Вероятность попадания случайной точки в произвольную область Перепишем соотношение (**) § 9 так: Отсюда заключаем: произведение /(&, Т1)-Д*-Д(/ есть ве- вероятность попадания случайной точки в прямоугольник со сторонами Дх и Д«/. Пусть в плоскости XOY дана произвольная область D. Обозначим событие, состоящее в попадании случайной точки в эту область, так: (X, Y)cD. 164 Разобьем область D на п элементарных областей пря- прямыми, параллельными оси OY, находящимися на расстоя- расстоянии Дх одна от другой и прямыми, параллельными оси ОХ, находящимися на расстоянии Ду одна от другой (рис. 17) (для простоты предполагается, что эти прямые пересекают контур области не более, чем в двух точках). Так как события, состоящие в попадании случайной точки в элементарные области, несовместны, то вероятность попадания в область D приближенно (сумма элементарных областей приближенно равна области D1) равна сумме ве- вероятностей попаданий точки в элементарные области: Ряс. 17. Р((Х, У) с D) ж S f(lt,y) • Д* • &у. Переходя к пределу при Д*-»-0 и А«/->-0, получим P((X,K)cD)= f f f{x,y)dxdy. (•) О» Итак, для того чтобы вычислить вероятность попадания случайной точки (X, Y) в область D, достаточно найти двой- двойной интеграл по области D от дифференциальной функции. Геометрически равенство (*) можно истолковать так: вероятность попадания случайной точки (X, Y) в область D равна объему тела, ограниченного сверху поверхностью г=Дх, у), основанием которого служит проекция этой по- поверхности на плоскость X0Y. Замечание. Подынтегральное выражение / (х, y)dxdy называют влементом вероятности. Как следует из предыдущего, элемент вероятности определяет вероятность попадания случай- случайной точки в элементарный прямоугольник со сторонами dx и dy. 165
Пример. Дана дифференциальная функция двумерной случайной величины Найти вероятность попадания случайной точки в прямо- прямоугольник (рис. 18) с вершинами К A; I), L (\ГЪ\ 1), М A; 0) и N (/3; 0). Решение. Искомая вероятность UkTl) M(i.a) M[V3,0) Рис. 18. п I 48 § 11. Свойства дифференциальной функции двумерной случайной величины Свойство I. Дифференциальная функция неотрица- неотрицательна: fix. у)>0. Доказательство. Вероятность попадания слу- случайной точки в прямоугольник со сторонами Дх и Дгу есть неотрицательное число; площадь этого прямоуголь- 166 ника — положительное число. Следовательно, отношение этих двух чисел, а значит, и их предел (при Дх-»-0 и Ду->0), который равен f(x, у) (§ 9), есть неотрицательное число, т. е. f(x,y)>0. Заметим, что свойство непосредственно следует из того, что F(x, у) есть неубывающая функция своих аргументов (§4). Свойство 2. Двойной несобственный интеграл с бес- ^конечными пределами от дифференциальной функции ра- равен единице: = I. —оо —оо Доказательство. Бесконечные пределы интег- интегрирования указывают, что областью интегрирования слу- служит вся плоскость хОу; поскольку событие, состоящее в том, что случайная точка попадет при испытании на плоскость хОу достоверно, то вероятность этого события (она и опре- определяется двойным несобственным интегралом от дифферен- дифференциальной функции) равна единице, т. е. f(x,y)dxdy = I. —00 —ОО § 12. Отыскание дифференциальных функций составляющих двумерной случайной величины Пусть известна дифференциальная функция системы двух случайных величии. Поставим своей задачей — найти дифференциальные функции каждой из составляющих. Найдем сначала дифференциальную функцию /t(x) сос- составляющей X. Обозначим через F,(x) интегральную функ- функцию составляющей X. По определению дифференциальной функции одномерной случайной величины dx 167
Приняв во внимание соотношения найдем F(x у)ш. J J f(x,y)dxdy (§8). F,(*)-f (*, ~) (§4). Продифференцировав обе части этого равенства по х, получим или jf{x.y)dy. О Аналогично находится дифференциальная функция составляющей К: се = J f(x.y)dx Итак, дифференциальная функция одной из составляю- составляющих равна несобственному интегралу с бесконечными пре- пределами от дифференциальной функции системы, причем переменная интегрирования соответствует другой сос- составляющей. Пример. Двумериая случайиая велнчина (Л, У) задана дифференциальной функцией f (*. У) J. „р. .?.+.*.<,. V О „ри -?- 168 Найти дифференциальные функции составляющих X и У. Решение. Найдем дифференциальную функцию сос- составляющей X по формуле (*) Итак, — V9 — x2 при |х|<3, о при |*|>3. Аналогично, пользуясь формулой (••), найдем диффе- дифференциальную функцию составляющей Y: — уь-у при О при \у\>2. Рекомендуем читателю для контроля самостоятельно убедиться в том, что найденные функции удовлетворяют соотношениям 1 и j fa(y)dy=l. § 13. Условные законы распределения составляющих системы дискретных случайных величии Мы установили, что если события А и В зависимы, то условная вероятность события В отличается от его безус- безусловной вероятности. В этом случае (гл. III, § 5, замеча- замечание 2) РЛВ) = Р(А) С) Аналогичное положение имеет место и для случайных величин. Для того чтобы охарактеризовать зависимость между составляющими двумерной случайной величины, введем понятие условного распределения. 169
Рассмотрим дискретную двумерную случайную вели- величину (X, Y). Пусть возможные значения составляющих таковы х2 хп; уи у2 ут. *n. У и Уг, Допустим, что в результате испытания величина Y приняла значение Y=y,\ при этом X примет одно из своих возможных значений xt или х2, ..., или хп. Обозначим ус- условную вероятность того, что X примет, например значе- значение xt при условии, что Y—y,, через /?(x,|iy,). Эта вероят- вероятность, вообще говоря, не будет равна безусловной вероят- вероятности р(х,). В общем случае условные вероятности составляющей будем обозначать так: P(xt\y,W= 1, 2 п; /=!, 2, .... т). Условным распределением составляющей X при У—У/ называют совокупность условных вероятностей P(*il^). Р(х2\у,) р(хп\у,), вычисленных в предположении, что событие Y=yf (j име- имеет одно и то же значение при всех значениях X) уже на- наступило. Аналогично определяется условное распределение составляющей Y. Зная закон распределения двумерной дискретной слу- случайной величины, можно, пользуясь формулой (*), вычис- вычислить условные законы распределения составляющих. На- Например, условный закон распределения X, в предположе- предположении, что событие Y=yt уже произошло, может быть найден по формуле _/„ |„ \ _ o(*f. S/i) («= 1.2 п). В общем случае условные законы распределения состав- составляющей X определяются соотношением Аналогично находят условные законы распределения составляющей Y: 170 Замечание. Сумма вероятностей условного распределе- распределения равна ед( цс. ДёПстпителыю, так как при фиксированном VJ имеем (§ 2) у_р (xt. yj) = p (yj), то Aiiaionimiu доказывается, что при фиксированном Это свойство условных распределений используют для конт- контроля вычислении. Пример. Двумерная случайная величина задана таб- таблицей 4. Таблица 4 Y ^~—- У\ 1/2 X, 0,10 0,06 *1 0.30 0.18 «• 0,20 0,16 Найти условный закон распределения составляющей X при условии, что составляющая Y приняла значение yt. Решение. Искомый закон определяется совокуп- совокупностью следующих условных вероятностей:' p{x3\yt). Воспользовавшись формулой (*), н приняв во внимание, что р({у,)=0,60 (стр. 156), имеем: р (Уг) 0,60 0,30 о.со 0,20 171
Сложив для контроля найденные условные вероят- вероятности, убедимся, что их сумма равна единице, как и долж- должно быть (в соответствии с замечанием на стр. 171): § 14. Условные законы распределения составляющих системы непрерывных случайных величин Пусть (X, Y) — непрерывная двумерная случайная величина. Условной дифференциальной функцией у(х\у) составляющей X при данном значении Y=y называют от- отношение дифференциальной функции f{x, у) системы к диф- дифференциальной функции /g(#) составляющей Y: Подчеркнем, что отличие условной функции <f>(x\y) от безусловной дифференциальной функции fi(x) состоит в том, что у{х\у) дает распределение X при условии, что составляющая Y приняла значение Y=y; функция же ft{x) дает распределение X независимо от того, какие из возможных значений приняла составляющая Y. Аналогично определяется условная дифференциальная функция составляющей Y при данном значении Х=х: С*) Если известна дифференциальная функция f(x, у) сис- системы, то условные дифференциальные функции составляю- составляющих могут быть найдены, в силу (•) и (**) (стр. 168), по формулам: J J fix. у) dx С**) J J f (x, у) dy С***) 172 Запишем формулы (*) и (**) в виде Отсюда заключаем: умножая закон распределения од- одной из составляющих на условный закон распределения другой составляющей, найдем закон распределения системы случайных величин. Как и любая дифференциальная функция, условные дифференциальные функции обладают следующими свой- свойствами: Пример. Двумерная случайная величина (X, К) зада- задана дифференциальной функцией при х\Л-уг>т1. Найтн условные дифференциальные законы распреде- распределения вероятностей составляющих. Решение. Найдем условную дифференциальную функцию составляющей X по формуле (*•*): х. у) _ 1 яг2 J/U. y)dx J_ 2 dx 2 Кг2—jf2 при \x\<Vr2-y2. Так как f(x, у)=0 при х2+уг>г\ то =0 при 173
Пользуясь формулой (****), аналогично найдем услов- условную дифференциальную функцию составляющей Y: гф" | У I < Vr% — *?, при | У | > V г2 — х2. §/15. Условное математическое ожидание Важной характеристикой условного распределения ве- вероятностей является условное математическое ожидание. Условным математическим ожиданием дискретной слу- случайной величины Y при Х=х (х — определенное возможное значение X) называют произведение возможных значений Y на нх условные вероятности: /=¦ Для непрерывных величии где 6(j/|*) — условная дифференциальная функция слу- случайной величины Y при Х=х. Аналогично определяется условное математическое ожи- ожидание случайной величины X. Пример. Дискретная двумерная случайная величина задана таблицей 5. 174 Таблица 5 У -3 = 6 0. 0, = 1 15 30 0 0 = i ,0b .10 0 0 — 4 -•5 03 0 0 = к .04 .07 Найти условное математическое ожидание состапляю- щей Y при X=Xi— 1. Р с ш е н и е. Найдем p{xi), для чего сложим вероят- вероятности, помещенные в первом столбце табл. 5. p(x,)=0,15 1-0,30=0,45. Найдем условное распределение вероятностен величины Y при X=xt=l (§ 13): Найдем искомое усповиое математическое ожидание по формуле (*): § 16. Зависимые и независимые случайные величины Мы назвали две случайные величины независимыми, если закон распределения одной из них не зависит от того, какие возможные значения приняла другая величина. Из этого определения следует, что условные распределения независимых величин равны их безусловным распределе- распределениям. Выведем необходимые и достаточные условия незави- независимости случайных величин. Теорема. Для того чтобы случайные величины X и Y были независимыми, необходимо и достаточно, чтобы ин- интегральная функция системы (X, Y) была равна произ- произведению интегральных функций составляющих: F(x, у) =Fl{x)-FM. Доказательство, а) Необходимость. Пусть X и Y независимы. Тогда события Х<.х и Y<Ly независимы, следовательно, вероятность совмещения этих 175
событий равна произведению их вероятностей Р(Х<х, Y<y)=P(X<x).P{Y<y), или F(x. y)=Fl(x).F2(y)- б) Достаточность. Пусть F{x, y)=Fi(x)-F2{y). Отсюда Р{Х<х, Y<y)=Р{Х<х) • P(Y<y), т. е. вероятность совмещения событий Х<х и Y<cy равна произведению вероятностей этих событий. Следователь- Следовательно, случайные величины X и Y независимы. Следствие. Для того чтобы непрерывные случайные ве- величины X и Y были независимыми, необходимо и достаточно, чтобы дифференциальная функция системы (X, Y) была равна произведению дифференциальных функций составля- составляющих: fix, у)ЧМ-Ш- Доказательство, а) Необходимость. Пусть X и Y — независимые непрерывные случайные ве- величины. Тогда (на основании предыдущей теоремы) F{x, y)=Fi(x).F,{y)- Дифференцируя это равенство по х, затем по у, имеем iPF __ dFt dFa дхду дх ду или (по определению дифференциальных функций двумер- двумерной и одномерной величин) fix, У)=Ш)-Ш). б) Достаточность. Пусть Интегрируя это равенство по х и по у, получим \ J f (х. -^U (х)dx f ft(y)dy. или (§8 гл. XIV и §3 гл. II) F(x, у)=Р 176 Отсюда (на основании предыдущей георемы) заключаем, что X и Y независимы. Замечание. Так как приведенные выше условия являются необходимыми и достаточными, то можно дать новые определения независимых случайных величин: 1) две случайные величины называют независимыми, еелн ин- интегральная функция системы этих величин равна произведению интегральных функций составляющих; 2) две непрерывные случайные величины называют независи- независимыми, если дифференциальная функция систем этих величин равна произведению дифференциальных функций составляющих § 17. Числовые характеристики системы двух случайных величин. Корреляционный момент. - Коэффициент корреляции Для описания системы двух случайных величин, кроме математических ожиданий и дисперсий составляющих, пользуются и другими характеристиками, к числу которых относятся корреляционный момент и коэффициент корре- корреляции. Коррелщионным_мотнтом_\1Ху случайных величин X и Y называют математическое ожидание произведения отклонений этих величин: ц xy=Ml{X-M(X))(Y-M(Y))\. Для вычисления корреляционного момента дискрет- дискретных величин пользуются формулой SV = I f (*« ~ М (X)) (у, - М (К)) р (х,, у,). а для непрерывных величин — J* {х ~ м (Х)) iu~ f{x y) dx dy- ее о* Корреляционный момент служит для характеристики связи между величинами X и Y. Как будет показано ниже, корреляционный момент равен нулю, если X и Y незави- независимы; следовательно, если корреляционный момент не равен нулю, то X и К — зависимые случайные величины. 7—43 177
Теорема. Корреляционный момент двух независимых случайных величин X и Y равен нулю. Доказательство. Так как X и Y независимые случайные величины, то их отклонения X—М[Х) и Y—M(Y) также независимы. Пользуясь свойствами мате- математического ожидания (математическое ожидание произ- произведения независимых случайных величин равно произве- произведению математических ожиданий сомножителей) и откло- отклонения (математическое ожидание отклонения равно нулю), получим Р,у = М [(X - М (X)) .(Y-M (Y))\ = = М [X - М (X)) ¦ М [У - М (Y)] = 0. Из определения корреляционного момента следует, что он имеет размерность, равную произведению размер- размерностей величин X и Y. Другими словами, величина корре- корреляционного момента зависит от единиц измерения случай- случайных величин. По этой причине для одних и тех же двух величин величина корреляционного момента будет иметь различные значения в зависимости от того, в каких еди- единицах были измерены величины. Пусть например X и Y были измерены в сантиметрах и Цху=2 см2; если измерить X и Y в миллиметрах, то цж» = =200 мм2. Такая особенность корреляционного момента является недостатком этой числовой характеристики, пос- поскольку сравнение корреляционных моментцв различных систем случайных величин становится затруднительным. Для того чтобы устранить этот недостаток, вводят новую числовую характеристику — коэффициент корреляции. Коэффициентом корреляции__Сх^ случайных величин X и Y иазываютотношение корреляционного момента к произведению средних квадратнческих отклонений этих величин: rxy Так как размерность р.ху равна произведению размер- размерностей величин X и Y, ах имеет размерность величины X, оу имеет размерность величины Y (гл. VIII, § 7), то гху есть безразмерная величина. Таким образом, величина коэффициента корреляции не зависит от выбора единиц измерения случайных величин. В этом состоит преимуще- 173 ство коэффициента корреляции перед корреляционным мо- моментом. Очевидно, коэффициент корреляции независимых слу- случайных величии равен нулю (так как ц»е=0). Замечание. Во многих вопросах теории вероятностей целесообразно вместо случайной величины X рассматривать норми- нормированную величину X', которая определяется как отношение от- отклонения к среднему квадратнческому отклонению: X - М (X) Нормированная величина имеет математическое ожидание, равное нулю, и дисперсию, рапную единице. Действительно, пользуясь свойствами математического ожидания и дисперсии имеем: = __ - At IЛ — Af (X)\ = -0=0; - М ^.DiX-MlX^RW o. of Легко убедиться в том, что коэффициент корреляции гху равен корреляционному моменту нормированных величин X' и К': /И[(Х-М(Х)). (К-Д1(К))]_ ^Г Х-А1(Х) ^ °дау К - М (К) М (X' • К') ,- „- • § 18. Коррелироваиность и зависимость случайных величии Две случайные величины Л и К называют коррелиро- коррелированными, если их корреляционный момент (или что то же — коэффициент корреляции) отличен от нуля; X и К называют некоррелированными величинами, если их кгфреллцшшнын момент равен нулю. Две коррелированные величины такжо и зависимы. Действительно, допустив противное, мы должны закл;о
чить, что [iXy=0, а это противоречит условию, так как для коррелированных величии \ххуф0. Обратное предложение не всегда имеет место, т. е. если две величины зависимы, то они могут быть как кор- коррелированными, так и некоррелированными. Другими словами, корреляционный момент двух зависимых величин может быть не равен нулю, но может и равняться нулю. Убедимся на примере, что две зависимые величины могут быть некоррелированными. Пример. Двумерная случайная величина (X, Y) за- задана дифференциальной функцией: 1 х2 . Ф f{x.y) = — внутри аплипса 1—2— = 1. f{x,y) — O внг этого эллипса Доказать, что X и Y зависимые некоррелированные величины. Решение. Воспользуемся ранее вычисленными диф- дифференциальными функциями X и Y (§ 12): ного эллипса и fl{x) = O, ft(y) = 0 вне его. )-^{у), то X и К зависимые вели- велиТак как f(x. чины (§ 16). Для того, чтобы доказать некоррелированность X и У, достаточно убедиться в том, что ц,у=0. Найдем корреляционный момент по формуле (§ 17): [Х ~ y) dXdy Поскольку дифференциальная функция f,{x) симмет- симметрична относительно оси 0Y, ю М(х)—0; аналогично М(К)= =0, в силу симметрии /2(у) относительно оси ОХ. Следо- Следовательно по ов =| \ ХУ • f (x- У) АхАУ —to —ос {«0 Вынеся постоянный множитель f(x, у) за знак интеграла, получим (Чу = / (X, У) — 09 \—ОЙ xdx\dy. Внутренний интеграл равен нулю (подынтегральная функ- функция нечетна, пределы интегрирования симметричны от- относительно начала координат), следовательно, цху=0, т. е. зависимые случайные величины X и Y некоррелиро- ваиы. Итак, из коррелированное™ двух случайных величин следует их зависимость, но из зависимости еще не вытекает коррелированность. Из независимости двух величин сле- следует их некоррелированность, но из некоррелированности еще нельзя заключить о независимости этих величин. Заметим, однако, что из некоррелированности нормаль- нормально распределенных величин вытекает их независимость. Это утверждение будет доказано в следующем парагра- фе. § 19. Нормальный закон распределения на плоскости На практике часто встречаются двумерные случайные величины, распределение которых нормально. Нормальным законом распределения на плоскости на- называют распределение вероятностей двумерной случайной величины (X, Y), если х е ¦ (*) Мы видим, что нормальный закон на плоскости опре- определяется пятью параметрами: аи а2. ох, ау и piy. Можно доказать, что эти параметры имеют следующий вероят- вероятностный смысл: аь а2— математические ожидания, (тг, ст„— средние квадратические отклонения, рху— коэффициент корреляции величин X и Г. Убедимся в том, что если составляющие двумерной нор- нормально распределенной случайной величины некоррелп- рованны, то они и независимы. Действительно, пусть X 181
и Y некоррелированны. Тогда, полагая в формуле (*) р_гу=0, получим (О-а,)' —И,)" ,,2 и Г 2г. =fl(x)f2<y). Таким образом, если составляюЕч1ие нормально распре- распределенной случайной величины некоррелированны, то диф- дифференциальная функция системы равна произведению дифференциальных функций составляющих, а отсюда и следует независимость составляющих (§ 16). Справедливо и обратное утверждение (§ 18). Итак, для нормально распределенных составляющих двумерно» случайной величины понятия независимости н некоррелированности — равносильны. Задачи I. Найти законы распределения составляющих дискретно» двумерной случайной величины, заданной законом распределения У -< У\ У» 0 0 >| 12 10 0. 0. 18 11 0, 0. 10 39 Отв. X ж, х, хя У ;/, у2 р 0,22 0,29 0,49 р 0.40 0,60. 2. Найти вероятность того, что составляющая X двумерном случайной величины примет значение .V <-j u при этом состав- составляющая Y примет значение у < -=•, если известна интегральная функция системы F (*. у) = (— arctfc, 2x -I- —j f 4" 182 3. Найти вероятность попадания случайной точки (X Y)n прямоугольник, ограниченный прямыми х =~?. х = ~ir, y= -jp п у = -д-л'слн известна интегральная функция F (х, у) = sin х sin у fo < х <-^- , 0<у< -^-\ ¦ Oms P(f<x<f, i<y<i)_o.ll. 4. Найти дифференциальную функцию системы двух случай- случайных величии по известной интегральной функции 0, у>0). Отв. I (х. у) ¦¦ дхду = 6е - <2л + Зу) 5. Внутри прямоугольника, ограниченного прямыми х = 0, г п х~~2 У = v< У = ~2- дифференциальная функция системы двух случайных величин f {х, у) = С sin (х + у) вне прямоугольника / (х. у) = 0. Найти: а) величину С, б) интегральную функцию си- системы Отв а) С = 0.5: б) F(x, |/)=0.5 [sin x + ¦f sin у — sin(*+ у)\\0<х< ~y . о <¦*<-=- 6. Система двух случайных величин распределена равномер- равномерно: в прямоугольнике, ограниченном прямыми х = 4, х = б, у = = 10, у = 15, дифференциальная функция сохраняет постоянное значение, а вне этого прямоугольника она равна нулю Найти: а) дифференциальную функцию, б) интегральную функцию си- системы Отв а) = б) t fix. 0.1 0 '(* (*- У) = внутри прямо- прямоугольника, вне прямоуголь ника; V) = 41A,- 10) 10 183
7. Дифференциальная функция системы двух случайных ве Q лпчни / (х, у) = /4 i жа\ (9 ¦ и-) ' Найти: а) величину С. б) инте- интегральную функцию системы Отв а) С = — ! б) F {х у) = ¦I— — + IT\\- arcte T" + •т)- 8. Двумерная случайная величина задана дифференциальной функцией f(x. У)= Найти условные законы распределения составляющих Отв. 9 (* в) = /г 3 - (х + З»)' i18 Часть третья ЭЛЕМЕНТЫ МАТЕМАТИЧЕСКОЙ СТА- СТАТИСТИКИ Глава пятнадцатая ВЫБОРОЧНЫЙ МЕТОД § I. Задача математической статистики Установление закономерностей, которым подчинены мас- массовые случайные явления, основано на изучении статисти- статистических данных — результатах наблюдений. Первая зада- задача математической статистики — указать способы сбора и группировки (если данных очень много) статистических сведений. Вторая задача математической статистики — разрабо- разработать методы анализа статистических данных, в зависи- зависимости от целей исследования. Изучение тех или иных явлений методами млтематн- ческон статистики сложит средством решения многих воп- вопросов, выдвигаемых наукой и практикой (правильная ор- организация технологического процесса, наиболее целесооб- целесообразное планирование и др.). Итак, задача математической статистики состоит в соз дании методов сбора н обработки статистических данных для получения научных и практических выводов § 2. Краткая историческая справка Математическая статистика возникли (XVII и.) и соз давались параллельно с теорией вероятностен Дальней- Дальнейшее развитие математической статистки (игораи половина XIX и начало XX вв.) обязано, в первую очередь, П. Л. Ч е ИЗ
бышеву, А. А. Маркову, А. М Ляпунову, а также К. Гауссу, А. Кетле, Ф. Гальтоиу, К. П и р с о и у и др. В XX в. наиболее существенный вклад в математическую статистику был сделай советскими математиками (В. И. Р о- маиовский, Е. Е. Слуцкий, А. Н. Колмого- Колмогоров, Н. В. С м н"р и о в), а также английскими ( С т ь го- годе н т, Р. Фишер, Э. П и р с о н) и американскими (Ю. Нейман, А. Вал ьд) учеными. § 3. Генеральная и выборочная совокупности Пусть требуется изучить совокупность однородных объектов относительно некоторого качественного или количественного признака, харак- характеризующего эти объекты. Например, если имеется партия деталей, то качественным признаком может служить стан- стандартность детали, а количественным — контролируемый размер детали. Иногда проводят сплошное обследование, т. е. обсле- обследуют каждый из объектов совокупности относительно признака, которым интересуются. На практике, однако, сплошное обследование применяется сравнительно редко. Например, если совокупность содержит очень большое число объектов, то провести сплошное обследование физически невозможно. Если обследование объекта связано с его уни- уничтожением или требует больших материальных затрат, то проводить сплошное обследование практически не имеет смысла. В таких случаях случайно отбирают из всей сово- совокупности ограниченное число объектов и подвергают их изучению. Выборочной совокупностью, нлн просто выборкой, на- называют совокупность случайно отобранных объектов. Генеральной совокупностью называют совокупность объектов, из которых производится выборка. Объемом совокупности (выборочной или генеральной) называют число объектов этой совокупности. Например, если нз 1000 деталей отобрано для обследования 100 де- деталей, то объем генеральной совокупности N=1000, а объем выборки п=100. Замечание. Часто генеральная совокупность содержит конечное число объектов Однако, если это число достаточно вели- велико, то иногда в целях упрощения вычислений, или для облегчения 186 теоретических выводов, допускают, что генеральная совокупность состоит нз бесчисленного множества объектов. Такое допущение оправдывается тем, что увеличение объема генеральной совокуп- совокупности (достаточно большого объема) практически не сказывается на результатах обработки данных выборки. § 4. Повторная и бесповторная выборки. Репрезентативная выборка При составлении выборки можно поступать двояко: после того, как объект отобран и над ним произведено на- наблюдение, он может быть возвращен, либо не возвращен в генеральную совокупность. В соответствии со сказанным, выборки подразделяют на повторные и бесповторные. Повторной называют выборку, при которой отобранный объект (перед отбором следующего) возвращается в гене- генеральную совокупность. Бесповторной называют выборку, при которой отоб- отобранный объект в генеральную совокупность не возвраща- возвращается. На практике обычно пользуются бесповторным случай- случайным отбором. Для того чтобы по данным выборки можно было доста- достаточно уверенно судить об интересующем нас признаке генеральной совокупности, необходимо, чтобы объекты выборки правильно его представляли. Это требование коротко формулируют так: выборка должна быть репре- репрезентативной (представителБиой). В силу закона больших чисел можно утверждать, что выборка будет репрезентативной, если ее осуществить слу- случайно: каждый объект выборки отобран случайно нз ге- генеральной совокупности, если все объекты имеют одинако- одинаковую вероятность попасть в выборку. Если объем генеральной совокупности достаточно ве- велик, а выборка составляет лишь незначительную часть этой совокупности, то различие между повторной и бесповторной выборками стирается; в предельном случае, когда рас- рассматривается бесконечная генеральная совокупность, а выборка имеет конечный объем, это различие исчезает. § 5. Способы отбора На практике применяются различные способы отбора. Принципиально эти способы можно подразделить на два вида: 187
1. Отбор, не требующий расчленения генеральной со- совокупности на части, сюда относятся: а) простой случайный бесповторный отбор; б) простой случайный повторный отбор. 2. Отбор, при котором генеральная совокупность раз- разбивается на ч;стн, сюда относятся: а) типический отбор; б) механический отбор; в) серийный отбор. Простым случайным называют гакоп отбор, при кото- котором объекты извлекают по одному из всей генеральной со- совокупности. Осуществить простой отбор можно различны- различными способами. Например, для извлечения п объектов из генеральной совокупности объема N поступают так: вы- выписывают номера от 1 до N на карточках, которые тщатель- тщательно перемешивают и наугад вынимают одну карточку, объект, имеющий одинаковый помер с извлеченной карточкой, подвергают обследованию; затем карточка возвращается в пачку и процесс повторяется, т. е. карточки перемеши- перемешиваются, наугад вынимают одну из них » т. д. Так посту- поступают п раз; в итоге получают простую случайную повторную выборку объема п. Если извлеченные карточки не возвращать в пачку, то выборка будет простой случайной бесновторнои. При большом объеме генеральной совокупности опи- описанный процесс оказывается очень трудоемким. В этом случае пользуются готовыми таблицами «случайных чисел», в которых числа расположены в случайном порядке. Для того чтобы отобрать, например 50 объектов нз пронумеро- пронумерованной генеральной совокупности, открывают любую стра- страницу таблицы случайных чисел и выписывают подряд 50 чисел; в выборку попадают те объекты, номера которых сов- совпадают с выписанными случайными числами. Если бы ока- оказалось, что случайное число таблицы превышает число N, то такое случайное число пропускают. При осуществлении бесповторион выборки случайные числа таблицы, уже Естречавшнеся ранее, следует также пропустить. Типическим называют отбор, при котором объекты от- отбираются не нз всей генеральной совокупности, а из каж- каждой ее «типической» части. Например, если детали изготов- изготовляют на нескольких станках, то отбор производят не нз всей совокупности детален, произведенных всеми станками, ;i из продукции каждого станка в отдельности. Типическим отбором пользуются тогда, когда обследуемый признак 1S3 заметно колеблется в различных типических частях гене- генеральной совокупности. Например, если продукция изготов- изготовляется на нескольких машинах, среди которых есть более и менее изношенные, то здесь типический отбор целе- целесообразен. Механическим называют отбор, при котором генераль- генеральная совокупность «механически» делится на столько групп, сколько объектов должно войти в выборку, и из каждой группы отбирается один объект. Например, если нужно отобрать 20% изготовленных станком детален, то отбирают кажаую пятую деталь; если требуется отобрать 5% детален, то отбирают каждую двад- двадцатую деталь н т. д. Следует указать, что иногда механический отбор может ие обеспечить репрезентативности выборки. Например, если отбирается каждый двадцатый обтачиваемый валик, причем сразу же после отбора производят замену резца, то отобранными окажутся все валики, обточенные затуп- затупленными резцами. В таком случае надо устранить совпа- совпадение ритма отбора с ритмом замены резца, для чего надо отбирать, скажем, каждый десятый валик из двадцати обто- обточенных. Серийным называют отбор, при котором объекты отби- отбирают из генеральной совокупности не по одному, а «се- «сериями», которые подвергаются сплошному обследованию. Например, если изаелия изготовляются большой группой станков-автоматов, то подвергают сплошному обследо- обследованию продукцию только нескольких станков. Серийным отбором пользуются тогда, когда обследуемый признак колеблется в различных сериях незначительно. Подчеркнем, что на практике часто применяется комби- комбинированный отбор, при котором сочетаются указанные выше способы. Например, иногда разбивают генеральную совокупность па серии одинакового объема, затем простым случайным отбором выбирают несколько серий и, наконец, из каждой серии простым случайным отбором извлекают отдельные объекты. § 6. Статистическое распределение выборки Пусть из генеральной совокупности извлечена иыборка, причем х, наблюдалось я, раз, х2 — iu p i.i, xk— nk раз н 2И/ =п—объем выборки. Наблюдаемые значения х{ на- 18CJ
зывают вариантами, а последовательность вариант, запи- записанных в возрастающем порядке — вариационным рядом. Числа наблюдений называют частотами, а их отношения к объему выборки —= Wt — относительными частотами. Статическим распределением выборки называют пе- перечень вариант и соответствующих им частот или отеюси- тельных частот. Статистическое распределение можно за- задать также в виде последовательности интервалов и соот- соответствующих нм частот (в качестве частоты, соответствую- соответствующей интервалу, принимают сумму частот, попавших в этот интервал). Заметим, что в теории вероятностей под распределением понимают соответствие между возможными значениями случайной величины н их вероятностями, а в математичес- математической статистике — соответствие между наблюдаемыми ва- вариантами и нх частотами, нли относительными частотами. Пример. Задано распределение частот выборки объема =20: х, 2 6 12 п, 3 10 7. Написать распределение относительных частот. Решение. Найдем относительные частоты, для че- чего разделим частоты на объем выборки: И/, =-А-=0,15, V,—?-0.Б0 11^3 = ^ = 0,35. Напишем распределение относительных частот: х, 2 6 12 Wt 0,15 0,6 0,35 Контроль: 0,15+0,5+0,35=1. § 7. Эмпирическая функция распределения Пусть известно статистическое распределение частот количественного признака X. Введем обозначения: пх— число наблюдений, прн которых наблюдалось значе- значение признака меньшее х, п — общее число наблюдений (объем выборки). Ясно, что относительная частота события Х<х равна — 1>лн х будет изменяться, то вообще говоря, будет изме- нться и относительная частота, т. е. относительная час- частота -jp есть функция от х. Так как эта функция находится эмпирическим (опытным) путем, то ее называют эмпири- эмпирической. Эмпирической функцией распределения (функцией рас- распределения выборки) называют функцию F*(x), опреде- определяющую для каждого значения х относительную частоту события Х<х. Итак, по определению где пх— число вариант, меньших х, п — объем выборки. Таким образом, для того чтобы найти, например F*(x^, надо число вариант, меньших Хъ разделить иа объем выборки: В отличие от эмпирической функции распределения выборки, интегральную функцию F(x) распределения ге- генеральной совокупности называют теоретической функ- функцией распределения. Различие между эмпирической и тео- теоретической функциями состоит в том, что теоретическая функция F(x) определяет вероятность события Х<х, а эмпирическая функция F*(x) определяет относительную частоту этого же события. Из теоремы Бернулли следует, что относительная частота события X<Lx, т. е. F*(x) стре- стремится по вероятности к вероятности F(x) этого события. Другими словами, числа F*(x) и F(x) мало отличаются одно от другого. Уже отсюда следует целесообразность исполь- использования эмпирической функции распределения выборки для приближенного представления теоретической (инте- (интегральной) функции распределения генеральной совокуп- совокупности. Такое заключение подтверждается и тем, что F*(x) об- обладает всеми свойствами F(x). Действительно, нз опреде- определения функции F*(x) вытекают следующие ее свойства: 1) значения эмпирической функции принадлежат от- отрезку [0,11; 2) F*(x) — неубывающая функция; 191
3) если *,— наименьшая варианта, го F*(x)=0 при § 8. Полигон и гистограмма если хк— наибольшая варианта, то F*\x)=\ при Итак, эмпирическая функция распределения выборки служит для оценки теоретической функции распределения генеральной совокупности. Пример. Построить эмпирическую функцию по данному распределению выборки: варианты х, 2 6 10 частоты nt 12 18 30. Решение. Найдем объем выборки: 12+18+30=60. Наименьшая варианта равна 2, следовательно, F*(x)=0, при *<2. Значение Х<6, а именно *,=2 наблюдалось 12 раз; следовательно, F* 1х) = -~ = 0.2 при 2<л<6. ои Значения Л<10, а именно лг,=2 и *2=6 наблюдались 12+18=30 раз; следовательно, F*(x) = -^- = 0,5 при 6<ж<10. Так как аг== 10 — наибольшая варианта, то F*(x)= 1 при Искомая эмпирическая функция F* (х) = 0 при *<2, 0,2 при 2<х<6, 0,5 при 6<х<10. • при х> 10 График этой функции изображен на рис. 19. 19У В целях наглядности строят различные графики ста- статистического распределения и. в частности, полигон и ги- гистограмму. Полигоном частот называют ломаную, отрезки которой соединяют точки (*,, я,), (х2, п2) (xk, пк). Для построе- построения полигона частот иа осп абсцисс откладывают варианты xt, а на оси ординат — соответствующие нм частоты nt. Точки {хь nt) соединяют отрезками прямых и получают полигон частот. Полигоном относительных частот называют ломаную, отрезки которой соединяют точки (*|, fl^O, {x2, №2). .... (xk, Wk). Для построения полигона относительных частот на оси абсцисс откладывают варианты xt, а на оси ординат Рис. 49 соответствующие им относительные частоты Wt. Точки (*|, Wt) соединяют отрезками прямых и получают полигон относительных частот. В случае непрерывного признака целесообразно стро- строить гистограмму, для чего интервал, в котором заключены все наблюдаемые значения признака, разбивают иа нес- несколько частичных интервалов длиною h и находят для каждого частичного интервала nt— сумму частот вариант, попавших в i-й интервал. На рнс. 20 изображен полигон относительных частот следующего распределения: X 1,5 3,5 5,5 7,5 W 0,1 0,2 0,4 0,3. Гистограммой частот называют ступенчатую фигуру, состоящую нз прямоугольников, основаниями которых 193
сложат частичные интервалы длиною А, а высоты равны отношению jf- (плотность частоты). Для построения гистограммы частот на оси абсцисс откладывают частичные интервалы, а над ними проводят отрезки, параллельные оси абсцисс па расстоянии -^-. Рнс. 20. - Площадь i-ro частичного прямоугольника равна А-т = =nt— сумме частот вариант t-ro интервала; следователь- следовательно, площадь гистограммы частот рав- равна сумме всех частот, т. е. объему выборки. На рнс. 21 изображена гистограмма частот распределе- распределения объема и=100, приведенного в таблице 6. Таблица 6 ЧастипныП интервал дли- длиною Л = 5 5—10 10-15 15-20 20—25 25—30 30—35 35—40 Сумма частот ва- рцавт частичного интервала п. 4 6 16 36 24 10 4 Платность • "/ ! частоты —у- ; 0,8 i 1,2 i 3,2 i 7,2 ! 4,8 S 2.0 : 0,8 : Гистограммой относительных частот называют сту- ступенчатую фигуру, состоящую из прямоугольников, осно- основаниями которых служат частичные интервалы длиною 194 h, а высоты равны отношению -j- (плотность относитель- относительной частоты). Для построения гистограммы относительных частот па оси абсцисс откладывают частичные интервалы, а над ними проводят отрезки, параллельные оси абсцисс на расстоя- расстоянии JEl. Площадь t-ro частичного прямоугольника равна h .JEi =Wt — относительной частоте вариант, попавших О 5 10 15 20 25 30 35 40 Рис. 21 в i-й интервал. Спедовательно, площадь гисто- гистограммы относительных .частот рав- равна сумме всех относительных час- частот, т. е. единице. Задачи 1. Построить график эмпирической функции распределения xt 5 7 10 15 я, 2 3 8 7. 2. Построить полигоны частот и относительных частот распре- распределения *, 1 3 5 7 9 п, 10 15 30 33 12 8, Построить гистограммы частот и относительных частот распределения (в первом столбце указан частичный интервал во втором — с>мма частот вариант частичного интервала): 2—5 9 5-8 10 8—11 25 11—14 С
Глава шестнадцатая СТАТИСТИЧЕСКИЕ ОЦЕНКИ ПАРАМЕТРОВ РАСПРЕДЕЛЕНИЯ § 1. Статистические оценки параметров распределения Пусть требуется изучить количественный признак ге- генеральной совокупности Допустим, что из теоретических соображений удалось установить, какое именно распре- распределение имеет признак. Естественно возникает задача опенки параметров, которыми определяется это распре- распределение. Например, если наперед известно, что изучаемый признак распределен в генеральной совокупности нормаль- нормально, то необходимо оцепить (приближенно найти) математи- математическое ожидание и среднее кват.ратическое отклонение, так как эти два параметра полностью определяют нормаль- нормальное распределение; если же есть основания считать, что при.ш 1к имеет, например распределение Пуасоопа, то необходимо оцепить параметр X. которым это распреде- распределение определяется. Оиычно в распоряжении исследователя имеются лишь данные выборки, например, значения количественного признака х,, х2 лг„, полученные в результате п наблю- наблюдений (здесь и далее наблюдения предполагаются незави- независимыми). Через эти данные и выражают оцениваемый параметр. Рассматривая xlt хг, .... хп как независимые случайные величины Л|, Х2, ..., ~Хп, можно сказать, что найти стати- статистическую оценку неизвестного параметра теоретического распределения — это значит найти функцию от наблюдае- наблюдаемых случайных величин, которая и дает приближенное значение оцениваемого параметра. Например как будет показано далее, для оценки математического ожидания нормального распределения служит функция (среднее ариф- арифметическое наблюдаемых значений признака) Итак, статистической оценкой неизвестного параметра ¦п-оретнческого распределения называют функцию от на- блючаемых случайных величин. § 2. Несмещенные, эффективные и состоятельные оценки Для того чтобы статистические оценки давали «хоро- «хорошие» приближения оцениваемых параметров, они должны удовлетворять определенным требованиям. Ниже указаны эти требования. Пусть 0* есть статистическая оценка неизвестного па- параметра 9 теоретического распределения. Допустим, что по выборке объема п найдена оценка 0Г . Повторим опыт, т. е. извлечем из генеральной совокупности другую выбор- выборку того же объема и по ее данным найдем оценку 0J . Пов- Повторяя опьм многократно, получим числа 0Г , 0J 6* , которые, вэебте говоря, будут различны между собой. Таким образом, оценку 0* можно рассматривать как слу- случайную величину, а числа 0" , 0* 0* , — как ее коз- можпые значения. Представим себе, что опенка в* дает приближенное зна- значение 0 с избытком; тогда каждое, найденное по данным выборок, число 9* (i=l, 2 k) будет больше истинного значения В. Ясно, что в этом случае и математическое ожи- ожидание (среднее значение) случайной величины 9* будет больше, чем 0, т. е. М @*)>0. Очевидно, что если 0* дает оценку с недостатком, то М @*)<0. Таким образом, использование статистической оценки, математическое ожидание которой не равно оцениваемому параметру, привело бы к систематическим {одного знака) ошибкам. По этоП причине естественно потребовать, чтобы математическое ожидание оценки 0* было равно оценива- оцениваемому параметру. Хотя соблюдение этого требования не устранит ошибок (одни значения 0* больше, а другие мень- меньше 0), однако ошибки разных знаков будут встречаться одинаково часто. Иными словами, соблючение требовании М@*) = 0 гарантирует от получения систематических ошибок. Несмешанной называют статистическую ошибку 0*, математическое ожидание которой равно оцениваемому параметру 0 при любом объеме выборки, т. е. М(9*) = 0. Смешанной называют оценку, математическое ожидание которой не равно оцениваемому параметру. Однако было бы ошибочным считать, что несмещенная оценка всегда дает хорошее приближение оцениваемого I'J7
параметра. Действительно, возможные значения 9* могут быть сильно рассеяны вокруг своего среднего значении, т. е. дисперсия DF*) может быть значительной. В этом случае, найденная по данным одной выборки оценка, на- например в* , может оказаться весьма удаленной от сред- среднего значения В*, а значит, н от самого оцениваемого параметра 0; приняв 9* в качестве приближенного значения 9, мы допустили бы большую ошибку. Если же потребо- потребовать, чтобы дисперсия 9* была малой, то возможность до- допустить большую ошибку будет исключена. По этой при- причине к статистической оценке предъявляется требование эффективности. Эффективной называют статистическую оценку, кото- которая (при заданном обьеме выборки п) имеет наименьшую возможную дисперсию. Прн рассмотрении выборок большого объема (я вели- велико!) к статистическим оценкам предъявляется требование состоятельности. Состоятельной называют статистическую оценку, ко- которая при и-»-оо стремится по вероятности к оцениваемому параметру. Например, если дисперсия несмещенной оцен- оценки прн п-*оо стремится к нулю, то такая оценка оказывает- оказывается и состоятельной. § 3. Генеральная средняя Пусть изучается дискретная генеральная совокупность относительно количественного признака X. Генеральной средней Лг называют среднее арифметическое значений признака генеральной совокупности. Если все значения хи х2, .... x,v признака генеральной совокупности объема N различны, то 1 ,v Если же значения признака .«,, хг хк имеют соот- соответственно частоты Л',, Л'2 Л'ь, причем Nl-ri\!2+—+Nk= =N, г Jj ¦ т. е. генеральная средняя есть средняя взвешенная зна- значении признака с весами, равными соответствующим час- частотам. 198 Замечание. Пусть генеральная совокупность объе- объема N содержит объекты с различными значениями призна- признака X, равными Х|, х2, .... x.v- Представим себе, что из этой совокупности наудачу извлекается один объект. Ве- Вероятность того, что будет извлечен объект со значением признака, например xt, очевидно, равна -~-. С этой же вероятностью может быть извлечен и любой другой объект. Таким образом, величину признака X можно рассматри- рассматривать как случайную величину, возможные значения кото- которой xv x2, ..., xv имеют одинаковые вероятности, равные-^у- Найдем математическое ожидание М(Х): Л" а х, + х» + Иа-ъ N Итак, если рассматривать обследуемый признак X гене- генеральной совокупности как случайную величину, то мате- математическое ожидание признака равно генеральной средней этого признака: М(Х)=хГ. Этот вывод мы получили, считая, что все объекты гене- генеральной совокупности имеют различные значения призна- признака. Такой же итог будет получен, если допустить, что генеральная совокупность содержит по несколько объек- объектов с одинаковым значением признака. Обобщая полученный результат на генеральную сово- совокупность с непрерывным распределением признака X, определим генеральную среднюю, и в этом случае как ма- математическое ожидание признака: § 4 Выборочная средняя Пусть для изучения генеральной совокупности отно- относительно количественного признака X извлечена выборка объема п. Выборочной средней хв называютсреднее арифметическое значение признака выборочной совокупности №
Если все значения хь х2 хп признака выборки объема п различны, то X = + Хг + ¦ ¦ ¦ + Х„ Если же значения признака х,, х2, .... хк имеют соот- соответственно частоты И|, «2. .., пк, причем - п.х, + ггг*в + •¦¦ 4 пкхк АВ п или *„ = т. е. выборочная средняя есть средняя взвешенная значений признака с весами, равными соответствующим частотам. Замечание. Выборочная средняя найденная по данным одной выборки есть, очевидно, определенное чис- число. Если же извлекать другие выборки того же объема из той же генеральной совокупности, то выборочная средняя будет изменяться от выборки к выборке. Таким образом, выборочную среднюю можно рассматривать как случайную величину, а следовательно, можно говорить о распределе- распределениях (теоретическом и эмпирическом) выборочной средней и о числовых характеристиках этого распределения (его называют выборочным), в частности, о математическом ожи- ожидании и дисперсии выборочного распределения. Заметим, что в теоретических рассуждениях выборочные значения xt, х2, ..., хп признака X, полученные в июге независимых наблюдений, также рассматривают как слу- случайные величины х,, х2, ... х„, имеющие то же распреде- распределение и, следовательно, те же числовые характеристики, которые имеют X § 5. Оценка генеральной средней по выборочной средней. Устойчивость выборочных средних Пусть из генеральной совокупности (в результате неза- независимых наблюдении над количественным признаком X) извлечена повторная выборка объема п со значениями признака х,, хг, ..., ха. Не уменьшая общности рассужде- 200 ний, будем считать эти значения признака различными. Пусть генеральная средняя х, неизвестна н требуется оценить ее по данным выборки. В качестве оценки гене- генеральной средней принимают выборочную среднюю Убедимся, что хв есть несмещенная оценка, т. е. пока- покажем, что математическое ожидание этой оценки равно хг. Будем рассматривать х„ как случайную величину и Х|, Хг хп, как независимые, одинаково распределенные случайные величины X,, Х2, .... Х„. Поскольку эти вели- величины одинаково распределены, то они имеют одинаковые числовые характеристики, в частности, одинаковое мате- математическое ожидание, которое обозначим через а. Так как математическое ожидание среднего арифметического оди- одинаково распределенных случайных величин равно мате- математическому ожиданию каждой из величин (гл. VIII, § 9), то М (Х"в) = МГ *' + Х* + ''" + Х" 1 = а. (*) [ п J Приняв во внимание, что каждая из величин Х„ Х2 Х„ имеет то же распределение, что и генераль- генеральная совокупность (которую мы также рассматриваем как случайную величину), заключаем, что и числовые харак- характеристики этих величин и генеральной совокупности оди- одинаковы. В частности, математическое ожидание а каждой из величии рапно математическому ожиданию признака X генеральной совокупности, т. е. М (X) = xt = a. Заменив в формуле (*) математическое ожидание о через xt, окончательно получим М[Х.) = *г Тем самым доказано, что выборочная средняя есть несме- несмещенная оценка генеральной средней. Легко показать, что выборочная средняя является и состоятельной оценкой генеральной средней. Действитель- Действительно, допустим, что случайные величины X,, Хг, ..., Х„ имеют ограниченные дисперсии, мы вправе применить к •АН
этим величинам теорему Чебышева (частный случай), в силу которой прн увеличении и_среднее арифметическое рассматриваемых величин, т. е. Х„ стремится по вероят- вероятности к математическому ожиданию а каждой из величин, пли, что то же, к генеральной средней хт (так как хг =а). Итак, при увеличении объема выборки п выборочная средняя стремится по вероятности к генеральной средней, а это и означает, что выборочная средняя есть состоятель- состоятельная оценка генеральной средней. Из сказанного следует также, что если по нескольким выборкам достаточно большого объема из одной и той же генеральной совокупности будут найдены выборочные сред- средние, то они будут приближенно равны между собой. В этом н состоит свойство устойчивости выборочных средних. Заметим, что если дисперсии двух совокупностей оди- одинаковы, то близость выборочных средних к генеральным не зависит от отношения объема выборки к объему гене- генеральной совокупности. Она зависит от объема выборки: чем объем выборки больше, тем меньше выборочная сред- средняя отличается от генеральной. Например, если из одной совокупности отобран 1 % объектов, а нз другой совокуп- совокупности отобрано 4% объектов, причем объем первой выборки оказался большим, чем второй, то первая выборочная сред- средняя будет меньше отличаться от соответствующей генераль- генеральной средней, чем вторая. Замечание. Мы предполагали выборку повторной. Од- Однако полученные выводы применимы и для бесповторной выборки, если ее объем значительно меньше объема генеральной совокупнос- совокупности. Это положение часто используется на практике. § 6. Групповая и общая средние Допустим, что все значения количественного призна- признака X совокупности, безразлично генеральной или выбо- выборочной, разбиты на несколько групп. Рассматривая каж- каждую группу как самостоятельную совокупность, можно найти ее среднюю арифметическую. Групповой средней называют среднее арифметическое значений признака, принадлежащих группе. Теперь целесообразно ввести специальный термин для средней всей совокупности. Общей средней~х называют среднее арифметическое зна- значений признака принадлежащих всей совокупности. 202 Зная групповые средние и объемы групп, можно найти общую среднюю: общая средняя равна средней арифмети- арифметической групповых средних, взвешенной по объемам групп. Опуская доказательство, приведем иллюстрирующий пример. Пример. Найти общую среднюю совокупности, состоя- состоящей нз следующих двух групп: Группа первая Значение признака 1 Частота 10 Объем 10 + 15=25 вторая 6 1 5 15 20 30 20+30=50. Решение. Найдем групповые средине: 10-1+15-6 „. х, — 25 20-1+30-5 50 3.4. Найдем общую среднюю по групповым средним 25 + 50 Замечание. Для упрощения расчета общей средней со- совокупности большого объема целесообразно разбить ее па несколь- несколько групп, найтн групповые средние п по ним общую среднюю. § 7. Отклонение от общей средней и его свойство Рассмотрим совокупность, безразлично генеральную или выборочную, значений количественного признака X объема п: значение признака *, х2 ... хк частота и, пг ... nk. причем 2 ni — п- Далее для удобства записи знак суммы Z будет за- заменен знаком 2. 203
Найдем общую среднюю х = =-^j~. п Отсюда Заметим, что поскольку л; — постоянная величина, то (**) Отклонением называют разность х(—^х между значе- значением признака и обшей средней. Теорема. Сумма произведений отклонений на соопюет- ствующие частоты равна нулю х,—*)=0. Доказательство. Учитывая (*) и (**), получим 2лД*,—x)=>2nixl—I,nlx=nx—nx~^Q. •* Пример. Дано распределение количественного приз- признака X: х, 1 2 3 П; 10 4 6. Убедиться, что сумма произведений отклонении на соот- соответствующие частоты равны пулю. Решение. Найдем общую среднюю - ю- 1-м-2+ 6-3 . „ X = = 10 20 Найдем сумму произведений отклонений на соответ- соответствующие частоты: S/i,(.«,—.«)= 10.A-1.8) f4-B—1,8) f6-C—l,8)=8—8=0. § 8. Генеральная дисперсия Для того чтобы охарактеризовать рассеяние значении количественного признака X генеральной совокупности вокруг своего среднего значения, вводят сводную харак- характеристику — генеральную дисперсию. 20 4 Генеральной дисперсией D, называют среднее арифме- арифметическое квадратов отклонений значений признака гене- генеральной совокупности от их среднего значения хг. Если все значения xlt x2, ..., *.v признака генеральной совокупности объема N различны, то 1=1 N Сели же значения признака *,, х2, .... хк имеют соот- соответственно частоты Л',, N2 Nk, причем Л',+Л'2+...+Л'Л= =N, то N т. е. генеральная дисперсия есть средняя взвешенная квадратов отклонений с весами, равными соответствующим частотам. Пример. Генеральная совокупность задана таблицей распределения: xt 2 4 5 6 /Vj 8 9 10 3. Найти генеральную дисперсию. Решение. Найдем генеральную среднюю (§ 3): г s 8-2+9-4 +10-5+3-6 120 . = — Ч 8 + 9 + 10 + 3 30 Найдем генеральную дисперсию: п 8.B — 4)" -| 9D—4)" + 10E — - —4Г- 30 -JL-1.8 30 Кроме дисперсии, для характеристики рассеяния зна- значений признака генеральной совокупности вокруг своего среднего значения пользуются сводной характеристи- характеристикой — средним квадратнческим отклонением Ж,
Генеральным средним квадратическим отклонением (стандартом) называют квадратный корень из генеральной дисперсии: § 9. Выборочная дисперсия Для того чтобы охарактеризовать рассеяние наблю- наблюдаемых значении количественного признака выборки вок- вокруг своего среднего значения хв вводят сводную характе- характеристику — выборочную дисперсию. Выборочной дисперсией DB называют среднее арифмети- арифметическое квадратов отклонения наблюдаемых значений при- признака от их среднего значения хв. Если все значения xt, хг х„ признака выборки объема п различны, то a = i=i Если же значения признака xt, дг2. ..., хк имеют соот- соответственно частоты nlt n-z, ..., nk, причем rti+rt2+...+rtft=rt, то т. с. выборочная дисперсия есть средняя взвешенная квад- квадратов отклонений с весами, равными соответствующим частотам. Пример. Выборочная совокупность задана таблицей распределения х, 1 2 3 4 «,. 20 15 10 5 Найти выборочную дисперсию. Решение. Найдем выборочную среднюю (§ 4): 20 - 1 + 15 - 2 -j 10-3 + 5-4 _ 100 20 + 15+10 50 = 2 2.-0 Найдем выборочную дисперсию: п 20 A — 2)г + 15 . B — 2)г + 10C— 2J + 5 D— 2J _ U* ~ 50 1. 50 Кроме дисперсии, для характеристики рассеяния зна- значений признака выборочной совокупности вокруг своего среднего значения пользуются сводной характеристикой.— средним квадратическим отклонением. Выборочным средним квадратическим отклонением (стандартом) называют квадратный корень из выборочной дисперсии: § 10. Формула для вычисления дисперсии Вычисление дисперсии, безразлично, выборочной млн генеральной, можно упростить, используя следующую теорему. Теорема. Дисперсия равна среднему квадратов значе- значений признака минус квадрат общей средней Доказательство. Справедливость теоремы вы- вытекает из преобразований: D = 2 ап = х2 — [х]2 -гЙ2= = х2 — [х]2. Итак, где X = ^ ' ' , X2 = . п и 207
Пример. Найти дисперсию поданному распределению: х, 1 2 3 4 /I, 20 15 10 5 Решение. Найдем общую среднюю: - _ 20 • 1 + 15 - 2 +10 • 3 + 5 • 4 _ JO0__2 Х~ 20+15+10 + 5 50 Найдем среднюю квадратов значений признака: 1 _ 20 • 1" + 15 • 2" + 13 ¦ 3* + 5 . 4» = 5 Х 50 Искомая дисперсия D = ?-[*]* = 5 — 2г = 1. § II. Групповая, виутригрупповая, межгрупповая и общая дисперсии Допустим, что все значения количественного призна- признака X совокупности, безразлично, генеральной или выбороч- выборочной, разбиты на k групп. Рассматривая каждую группу как самостоятельную совокупность, можно найти группо- групповую среднюю (§ 6) и дисперсию значений признака, при- принадлежащих группе, относительно групповой средней. Групповой дисперсией называют дисперсию значений признака, принадлежащих группе, относительно групповой средней: D /гр N, где п,— частота значения xt; j — номер группы; дг,— групповая средняя группы /; Л^=2л(— объем группы /'. Пример I. Найти групповые дисперсии совокупности, состоящей из следующих двух групп: 20Й Первая группа Xj nt 2 1 4 7 5 2 Вторая группа х( п, 3 2 8 3 Nt = Zn,= 10 /V2 = En( =5. Решение. Найдем групповые средние- 1 -2 + 7-4-f 2-5 , _ д,1 — 2», 10 2-3 + 3-8 = 6 Найдем искомые групповые дисперсии' D lrp x, — B —4J + 7-D —4J+2-E—4)а 10 0,6; D. = 6. Зная дисперсию каждой группы, можно найти их сред- среднюю арифметическую Внутригрупповой дисперсией называют среднюю ариф- арифметическую групповых дисперсий, взвешенную по объе- объемам групп: Д внгр где N)— объем группы /; объем всей совокупности. (-1 Пример 2. Найти виутригрупповую дисперсию по дан- данным примера 1. Решение. Искомая виутригрупповая дисперсия рав- равна "„игр + 10-0,6 + 5-6 12 = — 8—43 2(Г
Зиая групповые средние и общую среднюю, можно най- найти дисперсию групповых средних относительно общей сроднен. Межгрупповой дисперсией называют дисперсию группо- групповых средних относительно общей средней: где Xf— групповая средняя группы /; Л'^— объем группы /; х — общая средняя; ft п=2 Nj— объем всей совокупности. Пример 3. Найти межгрупповую дисперсию по даииым примера I. Решение. Найдем общую среднюю _ Х ~~ 1-2 + 7-4 2-3-f3-8 In, 15 Используя вычисленные выше величины Х|=4, х2=6, найдем искомую межгрупповую дисперсию 10 .D-— 15 Теперь целесообразно ввести специальный термин для дисперсии всей совокупности. Общей дисперсией называют дисперсию значений приз- признака всей совокупности относительно общей средней: где п,— частота значения xt; 7— общая средняя; п — объем всей совокупности. Пример 4. Найти общую дисперсию по данным при- примера I. 210 Р е ш е и и е. Найдем искомую общую дисперсию учи- учитывая, что общая средняя равна -^- I о 15 1-18 45 Замечание Найденная общая дисперсия равна сумме внутригрупповой и межгрупповой дисперсий; 148 45 + 12 5 148 45 В следующем параграфе будет доказано, что такая закономерность справедлива для любой совокупности, § 12 Сложение дисперсии Теорема. Если совокупность состоит из нескольких групп, то общая дисперсия равна сумме внутригрупповой и межгрупповой дисперсий:. Доказательство. Для упрощения доказатель- доказательства предположим, что вся совокупность значении коли- количественного признака X разбита на две следующие группы: Группа первая вторая Значение признака Xi x2 xt хг Частота mt т2 п, пг Объем группы Nl=mi-\-tn2 N2=nt+n2 Групповая средняя х, х~г Групповая дисперсия Dlrp D2ip Объем всей совокупности n = Ni+Nt 2 Далее для удобства записи вместо знака суммы 2 бу- дем писать знак 2. Например, 2ml=Emi—ml i
Счедует также иметь в виду, что если под знаком суммы стоит постоянная величина, то ее целесообразно выносить за знак суммы. Например, S /n»(-«i—-»сJ=(-«i—аJ2 /п? = (*) Найдем общую дисперсию: Преобразуем первое слагаемое числителя, вычтя и приба- прибавив Xi. 2"*! (*«-*)* = + 2«I (*!-*)'• Так как (,-. y.milx, — х,)г\ равенство следует из соотношения Dlrp = — I и, в силу § 7, 2 я», (*, — *,)= О, то первое слагаемое принимает вид 2т, (*, -IJ2 = /VtDlrp + Л, ft - *J. (•*) Аналогично можно представит^ второе слагаемое чис- числителя (*) (вычтя и прибавив х^: ( J + Л', [х, - лJ . (• * •) я, (*, - *J = Подставим (**) и (***) в (*): W,Dlr p + "гРггр Nt {x, — x) + Nz n n "г ^Л|ежгр- Итак, 212 ыежгр* Пример, иллюстрирующий доказанную теорему, приведен в предыдущем параграфе. Замечание. Теорема имеет ие только теоретическое, по н важное практическое значение. Например, если в результате наблюдений получены несколько групп значений признака, то для вычисления общей дисперсии можно группы в единую совокупность ие объединять. С другой стороны, если совокупность имеет большой объем, то целесообразно разбить ее на несколько групп. В том и другом случаях непосредственное вычисление общей дисперсии за- заменяется вычислением дисперсий отдельных групп, что облегчает расчеты. § 13. Оценка генеральной дисперсии по исправленной выборочной Пусть из генеральной совокупности в результате п независимых наблюдении над количественным признаком X извлечена повторная выборка объема п: значения признака xt x?. частота щ п2 причем ++ П„, Требуется по данным выборки оценить (приближенно найти) неизвестную генеральную дисперсию Dr. Если в качестве оценки генеральной дисперсии принять выбороч- выборочную дисперсию, то эта оценка будет приводить к системати- систематическим ошибкам, давая заниженное значение генеральной дисперсии. Объясняется это тем, что как можно доказать, выборочная дисперсия является смещенной оценкой Dr, другими словами, математическое ожидание выборочной дисперсии не равно оцениваемой генеральной дисперсии, а равно M[D.\= ?=lDr. л Легко «исправить» выборочную дисперсию так, чтобы ее математическое ожидание было равно генеральной дис- дисперсии. Достаточно для этого умножить DB на дробь ^ц . Сделав это, получим «исправленную дисперсию», которую обычно обозначают через s2: k k <=1 П-\ 213
Исправленная дисперсия является, конечно, несмещен- несмещенной оценкой генеральной дисперсии Действительно, M\s4-- M[Dm л — 1 л Итак, в качестве оценки генеральной дисперсии при- принимают исправленную дисперсию л — I Для оценки же среднего квадратнческого отклонения генеральной совокупности используют «исправленное» среднее квадратическое отклонение, которое равно квад- квадратному корню из исправленной дисперсии: s — 1 л— I Подчеркнем, что s не является несмещенной оценкой; чтобы отразить этот факт мы написали и будем писать да- далее так: «исправленное» среднее квадратическое откло- отклонение. Замечание. Сравнивая формулы У | I*J I Л! — Ли/ Si fit \Xi An/ DB = ¦—¦ и s2 = -=—=—! n n — I впдхм, что он» отличаются лишь знаменателями. Очевидно, при достаточно больших значениях л объема выборки, выборочная и исправленная дисперсия различаются мало. На практике пользуют- пользуются исправленной дисперсией, если примерно л < 30. § 14. Точность оценки, доверительная вероятность (надежность). Доверительный интервал Точечной называют оценку, которая определяется о д- и и м ч нсло м. Все оценки, рассмотренные выше — точечные. При выборке малого объема точечная оценка может значительно отличаться от оцениваемого параметра, т. е. приводить к грубым ошибкам. По этой причине при 214 небольшом объеме выборки следует пользоваться интер- интервальными оценками. Интервальной называют оценку, которая определяется двумя числами — концами интервала. Интерваль- Интервальные оценки позволяют установить точность и надежность оценок (смысл этих понятий выясняется ниже). Пусть, найденная по данным выборки, статистическая характеристика 0* служит оценкой неизвестного парамет- параметра 0. Будем считать В постоянным числом (в может быть и случайной величиной). Ясно, что В* тем точнее определяет параметр й, чем меньше абсолютная величина разности |0—0*|. Другими словами, если S>0 н |В—В*|<«, то, чем меньшей, тем оценка точнее. Таким образом, положи- положительное число б характеризует точность оценки. Однако статистические методы не позволяют категори- категорически утверждать, чго оценка В* удовлетворяет неравен- неравенству |0—B*|<fi; можно лишь говорить о вероятности у, с которой это неравенство осуществляется. Надежностью (доверительной вероятностью) оценки О по В* называют вероятность у, с которой осуществляется неравенство |В—в*|<6. Обычно надежность оценки за- задается наперед, причем в качестве у берут число, близкое к единице. Наиболее часто задают надежность, равную 0,95; 0,99 и 0,999. Пусть вероятность того, что |В—0*|<б равна у: P[|B-e*|<6J=Y. Заменив неравенство |9—В*| <б равносильным ему двой- двойным неравенством —б<0—в*<б, или имеем Это соотношение следует понимать так: вероятность того, что интервал (В*—б, В* +6) заключает в себе (покрывает) неизвестный параметр В, равна у. Доверительным называют интервал F*—б. В*+6), который покрывает неизвестный параметр с заданной на- надежностью V- Замечание. Интервал (в*—Ь, В* ¦+• В) имеет случай иые концы (их называют доверительными границами). Действи- Действительно, в разных выборках, получаются различные значения в. Следовательно, от выборки к выборке будут изменяться н копны 215
доверительного интервала, т. е. доверительные границы сами яв ляются случайными величинами — функциями от х\, Хг ,..., хп. Так как случайной величиной является не оцениваемый пара- параметр в, а доверительный интервал, то более правильно говорить ие о вероятности попадания О в доверительный интервал, а о ве- вероятности того, что доверительный интервал покроет в. Метод доверительных интервалов разработан амери- американским статистиком Ю. Нейманом, исходя из идей ан- английского статистика Р. Фишера. § 15. Доверительные интервалы для оценки математического ожидания нормального распределения при известном а Пусть количественный признак X генеральной совокуп- совокупности распределен нормально, причем среднее квадрати- ческое отклонение а этого распределения известно. Тре- Требуется оценить неизвестное математическое ожидание а по выборочной средней х. Поставим своей задачей найти доверительные интервалы, покрывающие параметр а с надежностью у. Будем рассматривать выборочную среднюю х, как слу- случайную величину X (х изменяется от выборки к выборке) и выборочные значения признака хи хъ ..., хп, как оди- одинаково распределенные независимые случайные величины Х|, Х2, ..., Хп (эти числа также изменяются от выборки к выборке). Другими словами, математическое ожидание каждой из этих величин равно а и среднее квадратическое отклонение — ст. Примем без доказательства, что если случайная ве- величина X распределена нормально, то выборочная средняя X, найденная по независимым наблюдениям, также рас- распределена нормально. Параметры распределения X та- таковы (гл. VIII, § 9): а, о (Л) = Потребуем, чтобы выполнялось соотношение где у — заданная надежность. Пользуясь формулой (гл. XII, § 6) 216 заменив Л через Хна через в(Х~) = -у= , получим где t = Найдя из последнего равенства f> писать t-7=, можем на- наПриняв во внимание, что вероятность Р задана и рав- равна y> окончательно имеем (чтобы получить рабочую^юрму- лу выборочную среднюю вновь обозначим через х): Р x — t hZ-^l = 2Ф(г) = т. Vn ) Смысл полученного соотношения таков: с надежностью [ можно утверждать, что доверительный интервал \х—t—2_, к +1 °_\ покрывает неизвестный пара- параметр а; точность оценки о = t '• ——. Итак, поставленная выше задача полиостью решена. Укажем еще, что число t определяется из равенства 2Ф(г)=у. или Ф@=-|-; п0 таблице функции Лапласа (при- (приложение 2) находят аргумент t, которому соответствует зна- значение функции Лапласа, равное -^- . 4 Замечание 1. Оценку | х —. а \ < / ¦ —т=. называют клас- а сической. Из формулы 8= I- Г7=". определяющей точность класси- классической оценки, можно сделать следующие выводы: 1) мри возрастании объема выборки п число 5 убывает и, сле- следовательно, точность оценки увеличивается; 2) увеличение надежности оценки "[ = 2 Ф(/) приводит к увеличению I (Ф (I) — возрастающая функция), а следовательно, и к возрастанию о; другими словами, увеличение надежности клас- классической оценки влечет за собой уменьшсиие ее точности. 217
Пример. Случайная величина X имеет нормальное рас- распределение с известным средним квадратическнм огкло- иеиием <т=3. Найти доверительные интервалы для оценки неизвестною математического ожидания а по выборочным средним"*, если объем выборкн «=36 и задана надежность оценки y=0.95. Решение. Найдем t. Из соотношения 2Ф(/)=0,95 получим Ф(/)=0,475. По таблице (приложение 2) находим /=1,96. Найдем точность оценки: ''9(L3 =0,98. | 36 Доверительные интервалы таковы: (х—0,98; 7+0,98). Например, если х=4,1, то доверительный интервал имеет следующие доверительные границы: JK—0,98=4,1— 0,98=3,12; х+0,98=4,1+0,98=5,08. Таким образом, значения неизвестного параметра а, согласующиеся с данными выборки, удовлетворяют нера- неравенству 3,12<а<5,08. Подчеркнем, что было бы ошибочным написать: Р C,12<а<5,08)=0,95. Действительно, так как а — постоянная величина, то либо она заключена в найденном интервале (тогда собы- событие 3,12<а<5,08 достоверно и его вероятность равна единице), либо в нем не заключена (в этом случае событие 3,12<а<5,08 невозможно и его вероятность равна нулю). Другими словами, доверительную вероятность не следует связывать с оцениваемым параметром; она связана лишь с границами доверительного интервала, которые, как уже было указано, изменяются от выборки к выборке. Поясним смысл, который имеет заданная надежность. Надежность y=0,95 указывает, что если произведено доста- достаточно большое число выборок, то 95% из них определяет такие доверительные интервалы, в которых параметр дей- действительно заключен; лишь в 5% случаев он может выйти за границы доверительного интервала. Замечание 2. Если требуется оценить математическое ожидание и наперед заданной точностью Ь и надежностью -у. то минимальный объем выборки, который обеспечит эту точность, находят но формуле [ следстпие равеистпа § 16. Доверительные интервалы для оценки математического ожидания нормального распределения при неизвестном а Пусть количественный признак X генеральной совокуп- совокупности распределен нормально, причем среднее квадрати- ческое отклонение а неизвестно. Требуется оценить неиз- неизвестное математическое ожидание а при помощи довери- доверительных интервалов. Разумеется, невозможно воспользо- воспользоваться результатами предыдущего параграфа, в котором а предполагалось известным. Оказывается, что по данным выборкн можно построить случайную величину (ее возможные значения будем обо- обозначать через /), которая имеет распределение Стьюдснта с k—п—I степеня- степенями свободы (см. пояснение в конце параграфа); здесь X — выборочная средняя, S — «исправленное» среднее квад- ратнческое отклонение, п — объем выборки. Дифференциальная функция где В„ = ) 210
Мы видим, что распределение Стьюдента определяется параметром п — объемом выборки (или, что то же, числом степеней свободы k=n—1) и не зависит от неизвестных пара- параметров аист; эта особенность является его большим до- достоинством). Поскольку S(t, n) — четная функция от /, вероятность осуществления неравенства деляется так (гл. XI, §2, замечание): / т „ \ у опре- Х — а S = 2 Заменив неравенство в круглых скобках равносильным ему двойным неравенством, получим Итак, пользуясь распределением Стьюдеита, мы нашли доверительный интервал х—t, -^r" х+/т -тг-, покрывающий у п у п неизвестный параметр а с надежностью у. Здесь случайные величины ~Х и S заменены неслучайными величинами х и s, найденными по выборке. По таблице (приложение 3), по заданным пну можно найти /т . Пример. Количественный признак X генеральной сово- совокупности распределен нормально. _По выборке объема п=16 найдены выборочная средняя jt=2O,2 и «исправлен- «исправленное» среднее квадратическое отклонение s=0,8. Оценить неизвестное математическое ожидание при помощи до- доверительного интервала с надежностью 0,95. Решение. Найдем <7 . Пользуясь таблицей (прило- (приложение 3), по y=0,95 и п=16, находим Ц =2,13. Найдем доверительные границы: x-t -L_ = 20,2-2,13 -24i= 19,774, 7 >'" = 20,2 + 2,13 -Sii- = 20,626. Итак, с надежностью 0,95 неизвестный параметр а заключен в доверительном интервале 19,774<о<20,626. 220 Замечание. Из предельных соотношений lim Р т следует, что при неограниченном возрастании объема выборки л распределение Стьюдента стремится к нормальному. Поэтому при я > 30 можно вместо распределения Стьюдента пользоваться нор- нормальным распределением. Однако важно подчеркнуть, что д л я малых вы- выборок (л<30), в особенности для малых значений п, замена распределения нормальным приводит к грубым ошибкам, а именно — к неоправданному сужению довери- доверительного интервала, т. е. к повышению точности оценки. Например, если п=5 и у =0,99, то пользуясь распреде- распределением Стьюдента, найдем <т =4,6, а используя функцию Лапласа, найдем <т =2,58, т. е. доверительный интервал в последнем случае окажется более узким, чем найденный по распределению Стьюдента. То обстоятельство, что распределение Стьюдента прн малой выборке дает не вполне определенные результаты (широкий доверительный интервал), вовсе не свидетель- свидетельствует о слабости метода Стьюдента, а объясняется тем, что малая выборка, разумеется, содержит малую информацию об интересующем нас признаке. Пояснение. Ранее было указало (гл. XII, § 14), что если Z — нормальная величина, причем M(Z)=0, a[Z)=l, a V — независимая от Z величина, распределенная по за- закону ха с * степенями свободы, то величина (*) =/ -г распределена по закону Стьюдента о k степенями свободы. Пусть количественный признак X генеральной совокуп- совокупности распределен нормально, причем Ai(X)=a, ст(Х)=о. Если из этой совокупности извлекать выборки объема п и по ним находить выборочные средние, то можно доказать, что выборочная средняя распределена нормально, причем (гл. VIII. § 9) М[ХЬ) a, o[XB) = —=. 221
Тогда случайная величина z = (**) также имеет нормальное распределение, как линейная функция нормального аргумента Хв (гл ХП, |i К) заме чание). причем /W(Z)=0, <r(Z)=l. Доказано, что независимая от Z случайная величина (S2— исправленная выборочная дисперсия) распределена по закону /* с k=n—1 степенями свободы. Следовательно, подставив (**) и (***) в (*) получим величину _ _ Т- 1Х*-°)У'Г S которая распределена по закону Стьюдепта с k=n—1 сте- степенями свободы. § 17. Оценка истинного значения измеряемой величины Пусть производится п независимых равноточных изме- измерений некоторой физической величины, истинное значение а которой неизвестно. Будем рассматривать результаты отдельных измерении как случайные величины X,, Х2, .., Хп. Эта величины независимы (измерения неза- независимы), имеют одно и то же математическое ожидание а (истинное значение измеряемой величины), одинаковые дисперсии а2 (измерения равноточны) и распределены нор- нормально (такое допущение подтверждается опытом). Таким образом, все предположения, которые были сделаны при выводе доверительных интервалов в двух предыдущих параграфах, выполняются и, следовательно, мы вправе использовать полученные в них формулы. Другими ело вами, истинное значение измеряемой величины можно оце пивать по среднему арифметическому результатов отдель- отдельных измерении при помощи доверительных интервалов Поскольку обычно а неизвестно, следует пользоваться формулами § 16. 222 Пример. По данным девяти независимых равноточных измерении физической величины найдены среднее арифме- арифметическое результатов отдельных измерений дг=42,31Г) и «исправленное» среднее квадратпческое отклонение s= =5,0. Требуется оценить истинное значение измеряемой величины с надежностью у=0,95. Р е ш е и и с. Истинное значение измеряемой величины равно ее математическому ожиданию. Поэтому задача сводится к оценке математического ожидания (при неиз- неизвестном а) при помощи доверительного интервала x-t -^«Kx + t-!—, т У n 7 Уп покрывающего а с заданной надежностью у=0,95 Пользуясь таблицей (приложение 3) по у =0,95 и п—9, находим /v =2,31. Найдем точность оценки: = 2,31 • — = 3,85. 7 У7Г » Найдем доверительные границы: x — t —?— = 42,319 — 3,85 = 36,469; x+t —^=42.319+3,85^=46,169. 7 V Игак, с надежностью 0,95 истинное значение измеряе- измеряемой величины заключено в доверительном интервале 38,469<a<46,169. § 18. Доверительные интервалы для оценки среднего квадратического отклонения о нормального распределения Пусть количественный признак X генеральной сово- совокупности распределен нормально. Требуется оценить не- неизвестное генеральное среднее квадратическое отклоне- отклонение а по «исправленному» выборочному среднему квадра- тическому отклонению s. Поставим перед собой зддау найти доверительные интервалы, покрывающие параметр а с заданной надежностью у. 223
Потребуем, чтобы выполнялось соотношение =q, получим или Для того чтобы можно было пользоваться готовой та- таблицей, преобразуем двойное неравенство s—8<(j<s+8 в равносильное неравенство Положив — Остается найти q. С этой целью введем в рассмотрение слу- случайную величину «хи»: где п — объем выборки. Как было указано (§ 16, пояснение, соотношение (***), величина — ~ распределена по закону ул, поэтому квадратный корень из нее обозначают через х- Дифференциальная функция распределения % имеет вид (см пояснение в конце параграфа) R(X. п) "Г п—З Мы видим, что это распределение не зависит от оценивае- оцениваемого параметра а, а зависит лишь от объема выборки п. Преобразуем неравенство (*) так. чтобы оно приняло вид Х,<Х<Х8- Вероятность этого неравенства (гл. XI, § 2) равна задан- заданной вероятности у, т. е. 224 Предполагая, что <?<!, перепишем неравенство (*) так: S(\ +Q) » ~S(l-(?) Умножив все члены неравенства на S\^n—1, получим или V1T=T _ sYn-\ Yn — \ Вероятность того, что это неравенство, а следовательно, и равносильное ему неравенство (*) будет осуществлено, равна I —и п — I Из этого уравнения можно по заданным п и у найти q. Практически для отыскания q пользуются таблицей (при- (приложение 4). Вычислив по выборке s и найдя по таблице q, получим искомый доверительный интервал (*), покрывающий а с заданной надежностью у, т. е. интервал Пример 1. Количественный признак X генеральной со- совокупности распределен нормально. По выборке объема л=25 найдено «исправленное» среднее квадратическое от- отклонение s=0,8 Найти доверительный интервал, покры- покрывающий генеральное среднее квадратическое отклонение а с надежностью 0,95. Решение. По таблице (приложение 4) по данным Y=0,95 и л=25 найдем ^=0,32. Искомый доверительный интервал (*) таков: или 0,8A-0,32)<(У<0,8A +0,32). 0.544<<7<1,056 225
Замечание. Выше предполагалось, что q < I. Если q > 1 то неравенств (*) примет пнд (учптьшая, что в > 0) 0 < в< s(l + q). или (после преобразовании, аналогичных случаю q < I) Уп-\ Следовательно, значения 9 > I .\ioryi быть найдены из уравнения Практически для отыскания значений q > |, соответствующих различным заданным п и-\. пользуются таблицей (приложение 4). Пример 2. Количественный признак X генеральной со- совокупности распределен нормально. По выборке объема л=10 найдено «исправленное» среднее квадратическое от- отклонение s=0,16. Найти доверительный интервал, покры- покрывающий генеральное среднее квадратическое отклонение а с надежностью 0,999. Решение. По таблице (приложение 4) по данным Y=0,999 и л=10 найдем <?=1,80 (<?>1). Искомый довери- доверительный интервал таков: или 0<ст<0,16A + 1.80) 0<ст<0.448. Пояснение. Покажем, что дифференциальная функция распределения / имеет вид (**). v Если случайная величина X распределена но закону X2 с k—n—1 степенями свободы, то ее дифференциальная функция (гл. XII, § 13) к 2 X к 2Т Г € ж т -\ 226 или, после подстановки к=п—1, п — 3 х е Воспользуемся формулой (гл. XII, ^ 10) ?,¦ (У) - -I'/ чтобы найти распределение функции y^ Отсюда обратная функция х - Ф (X) = Xя и Так как Следовательно. Х>0. то |f i л —а -г(?) Выполнив элементарные преобразования и изменив обозначения (#(/) заменим на Я(х, л)), окончательно полу- получим § 19. Оценки точности измерений В теории ошибок принято гочность измерений (точность прибора) характеризовать при помощи среднего квадраги ческого отклонения а случайных ошибок измерений. Для оценки а используют «исправленное» среднее квадрати- квадратическое отклонение s. Поскольку обычно результаты намерении взаимно неза висимы, имеют одно и то же математическое ожидание 227
(истинное значение измеряемой величины) и одинаковую дисперсию (в случае равноточных измерений), то теория, изложенная в предыдущем параграфе, применима для оценки измерений. Пример. По 15 равноточным измерениям ггайдено «ис- «исправленное» среднее квадратнческое отклонение s=0,12. Найти точность измерений с надежностью 0,99. Решение. Точность измерений характеризуется сре- средним квадратнческнм отклонением а случайных ошибок, поэтому задача сводится к отысканию доверительного ин- интервала (*) (§ 18), покрывающего а с заданной надеж- надежностью 0,99. По таблице (приложение 4) по у—0,99 и л=15 найдем 9=0,73. Искомый доверительный интервал таков: или 0,12A-0,73)<G<0,12A+0,73), 0,03<(т<0,21. § 20. Другие характеристики вариационного ряда Кроме выборочной средней и выборочной дисперсии применяются и другие характеристики вариационного ряда. Укажем главные из них. Модой Мо называют варианту, которая имеет наиболь- наибольшую частоту. Например, для ряда варианта 1 частота 5 7 20 мода равна 7. Медианой те называют варианту, которая делит ва- вариационный ряд на две части, равные по числу вариант. Если число вариант нечетно, т. е. л=2А+1, то mt—xktt; при четном n=2k медиана т. _ хк Например, для ряда 2 3 5 6 7 228 медиана равна 5; для ряда 2 3 5 6 7 9 5—6 медиана равна =5,5. Размахом варьирования R называют разность между наибольшей и наименьшей вариантами: ° = *тэх — *miii- Например, для ряда I 3 4 5 6 10 размах равен 10—1=9. Размах является простейшей характеристикой рассея- рассеяния вариационного ряда. Средним абсолютным отклонением в называют среднее арифметическое абсолютных отклонений: Например, для ряда имеем Ха — — ж, 1 3 6 16 nt 4 10 5 I Ю • 3 + 5 ¦ 6 + I ¦ J6^ = _80_ 4+ = _80_ = 4. 20 О = 4-|1-4|+10|3-4| +5 -16-41 + 1 -|'6-4| = „ g 20 ' ' Среднее абсолютное отклонение служит для характеристики рассеяния вариационного ряда. Коэффициентом вариации V называют выраженное в процентах отношение выборочного среднего квадратичес- кого отклонения к выборочной средней: V = -U- . 100%. Коэффициент вариации служит для сравнения величин рассеяния двух вариационных рядов: тот из рядов имеет большее рассеяние, у которого коэффициент вариации больше. 229
Замечание. Выше предполагалось, что вариационный ряд составлен но данным выборки, поэтому все описанные харак- характеристики называют выборочными; если вариационный ряд состав- леи по данным генеральной совокупности, то характеристики на- называют генеральными. Задачи 1. Найти групповые средине совокупности состоящей из двух групп: первая группа xt O.I 0,4 0,6 it, 3 2 5; вторая группа xt 0,1 0,3 0,4 п, 10 4 6. _ _ Отв. х\ = 0,41; х2 — 0,23. 2. Найти общую среднюю по данным задачи I двумя способами: а) объединить обе группы в одну совокупность; б) использовать найденные в задаче I групповые средние. Отв. ~х = 0,29 3. Дано распределение статистической совокупности- х, 1 4 5 л, 6 II 3. Убедиться, что сумма произведений отклонений на соответствую- соответствующие частоты рапна пулю. 4. Дано распределение статистической совокупности: х/ 4 7 10 15 яг 10 15 20 5. llaimi дисперсию совокупности: а) исходя из определения днепер сии; б) пользуясь формулой D = х*— [х]2. v. Отв. D = 9,84. 5. Найти внутригрупповуго, межгрупповую и общую диспер- дисперсии совокупности, состоящей из трех групп; первая группа Xj 12 8 п, 30 15 5; вторая группа х/ 1 6 л, 10 15: третья группа х, 3 8 п, 20 5 Отв. D.Hrp = 4,6;_Оым<Гр = — 1; ^общ — 5,6. 6. Нантп внутрпгрупповую, межгрупповую н общую диспер- дисперсии совокупности, состоящей из двух групп: первая группа х,- 2 7 я; 6 4; вторая группа х; 2 7 /I/ 2 8. Отв. DBllrp = 5; Оме)|(гр = 7. Найти выборочную п исправленную дисперсии вартгациои пого ряда, составленного по данным выборкам: 230 варианта 12 5 8 9 частота 3 4 6 4 3. Отв. <s\ = 8,4; S* = 8,84 В задачах 8—9 даны среднее квадратическое отклонение, вы- выборочная средняя и объем выборки нормально распределенного признака. Найти доверительные интервалы для оцеикп неизвест- неизвестного математического ожидания с заданной надежностью. 8. а = 2, j^ = 5,40, я = 10, t = 0,95. Отв. 4,16 < а < 6,64. 9. a = 3. ~хв = 20,12, п = 25, ? = 0,99. Отв. 18,57 < а < 21,67. 10. Найти минимальный объем выборки, при котором с надеж- надежностью 0,95 точность оценки математического ожидания нормаль- нормально распределенного признака по выборочной средней будет равна 0,2, если среднее квадратическое отклонение равно 2 Указание. См замечание 2, § 15. Отв. п = 385. В задачах 11—12 даны «исправленное» среднее квадратнческое отклонение, выборочная средняя и объем малой выборки нормаль- нормально распределенного признака. Найти, пользуясь распределен нем Стьюдеита. доверительные интервалы для оценки неизвестного математического ожидания с заданной надежностью. 11. s = 1,5, х„ = 16,8, п = 12. y = 0,95. Отв. |5,85 < а < 17,75. 12. s = 2,4, х„ = 14.2, п = 9, к = 0,99. Отв. 11,512 < а < 16,888. 13. По данным 16 независимых равноточных измерений физи- физической величины найдены х~к = 23,161 и s = 0,400. Требуется оце- оценить истинное значение а измеряемой величины и точность измере- измерении а с надежностью 0,95. 0ms. 22,948<о<23,374; 0,224 < о < 0,576. Глава семнадцатая МЕТОДЫ РАСЧЕТА СВОДНЫХ ХАРАКТЕРИСТИК ВЫБОРКИ § 1. Условные варианты Предположим, что варианты выборки расположены и возрастающем порядке, т. е. в виде вариационного ряда. Равностоящими называют варианты, которые образуют арифметическую прогрессию с разностью ft. Условными называют варианты, определяемые равен- равенством: ut = х,-С 23 L
где С — ложный нуль (новое начало отсчета); h — шаг, т. е. разность между любыми двумя сосед- соседними первоначальными вариантами (новая еди- единица масштаба). Упрощенные методы расчета сводных характеристик выборки основаны на замене первоначальных вариант условными. Покажем, что если вариационный ряд состоит из равно- равноотстоящих вариант с шагом Л, то условные варианты есть целые числа. Действительно, выберем в качестве ложного нуля произвольную варианту, например хт. Тогда «,-^- - [)h\ t ^^™ film Так как i и in — целые числа, то их разность i—m=ut также есть целое число. Замечание 1. В качестве ложного нуля можно принять любую варианту Максимальная простота вычислений достигается, если выбрать в качестве ложного нуля варианту, которая располо- расположена примерно в середине вариационного ряда (часто такая вари- варианта имеет наибольшую частоту) Замечание 2. Варианте, которая принята в качестве ложного нуля, соответствует условная варианта, равная нулю Пример. Найти условные варианты статистического рас- распределения варианты 23,6 28,6 33,6 38,6 43,6 частоты 5 20 50 15 10. Решение. Выберем в качестве ложного нуля ва- варианту 33,6 (эта варианта расположена в середине вариа- вариационного ряда). Найдем шаг /1=28,6—23,6=5. Найдем условную варианту _ *!— С _ 23,6 — 33.6 „ в, - _-2. Аналогично получим иг——1, ы3=0, «4=1, «5=2. Мы видим, что условные варианты — небольшие це- целые числа. Разумеется, оперировать с ними проще, чем с первоначальными вариантами. 232 § 2. Обычные, начальные и центральные эмпирические моменты Для вычисления сводных характеристик выборки удоб- удобно пользоваться эмпирическими моментами, определения которых аналогичны определениям соответствующих тео- теоретических моментов (гл. VIII, § 10). В отличие от тео- теоретических, эмпирические моменты вычисляют по данным наблюдений. Обычным эмпирическим моментом порядка k называют среднее значение k-x степеней разностей х,—с: где х, — наблюдаемая варианта, л,—частота варианты, /1=2/1,— объем выборки, с — произвольное постоянное число (ложный нуль). Начальным эмпирическим моментом порядка k назы- называют обычный момент порядка k при с=0 В частности. т. е. начальный эмпирический момент первого порядка равен выборочной средней. Центральным эмпирическим моментом порядка k на- называют обычный момент порядка k при с=дс„ mk = X п, (х, - х„)* В частности, т, = 2."i(xi — хв) хвг _ (*) т. е. центральный эмпирический момент второго порядка равен выборочной дисперсии. 233
Легко выразить центральные моменты через обычные (рекомендуем читателю сделать это самостоятельно): ,***\ § 3. Условные эмпирические моменты. Отыскание центральных моментов по условным Вычисление центральных моментов требует довольно громоздких вычислений. Чтобы упростить расчеты, заме- заменяют первоначальные варианты условными. Условным эмпирическим моментом порядка k называют начальный момент порядка k, вычисленный для условных вариант: В частности, Отсюда xa=:M\h+c. (*) Таким образом, для того чтобы найти выборочную сред- среднюю, достаточно вычислить условный момент первого порядка, умножить его на ft и к результату прибавить ложный нуль с. Выразим обычные моменты через условные: ft* ft* Отсюда 234 Таким образом, для того чтобы нантн обычный момент порядка к, достаточно условный момент того же порядка умножить на к". Найдя же обычные моменты, легко нантн центральные моменты но равенствам (*'*) и (***) предыдущего пара- параграфа. В итоге получим удобные для вычислений формулы, выражающие центральные моменты через условные: mt = [A6-(A*;J]A«; (**) ш, = \М\- ЗУИЖ + 2 [М\У] А3; 1 т4 = [Аи - *М]М\ + 6АЁ {М\У -3 [М\У] h*.) В частности, в силу (**) и соотношения (*) предыдущего параграфа получим формулу для вычисления выборочной дисперсии по условным моментам первого и второго поряд- порядков (****) Техника вычислений центральных моментов по условным описана далее. § 4. Метод произведений вычисления выборочных средней и дисперсии Метод произведений дает удобный способ вычисления условных моментов различных порядков вариационного ряда с равностоящими вариантами. Зная же условные мо- моменты, нетрудно нантн интересующие нас начальные it центральные эмпирические моменты. В частности, методом произведений удобно вычислять выборочную среднюю и выборочную дисперсию. Целесообразно пользоваться рас- расчетной таблицей, которая составляется так: 1) в первый столбец таблицы записывают выборочные (первоначальные) варианты, располагая их в возрастаю- возрастающем порядке; 2) во второй столбец записывают частоты вариант; скла- складывают все частоты н их сумму (объем выборки п) поме- помещают в нижнюю клетку столбца; 235
3) в третий столбец записывают условные варианты и,— Х'Г~ , причем в качестве ложного нуля С выбирают варианту с наибольшей частотой и полагают h равным разности между любыми двумя соседними вариантами; практически же третий столбец заполняется так: в клетке строки, содержащей наибольшую частоту, пишут 0; в клзтках над нулем пишут последовательно—1,—2, —3 и т.д., а под нулем I, 2, 3 и т.д.; 4) умножают частоты на условные варианты и записы- записывают их произведения п?и,- в четвертый столбец; сложив все полученные числа, их сумму 1dniul помещают в нижнюю клетку столбца; 5) умножают частоты на квадраты условных вариант и записывают их произведения niu* в пятый столбец; сло- сложив все полученные числа, их сумму S«i«j2, помещают в нижнюю клетку столбца; 6) умножают частоты на квадраты условных вариант, увеличенных каждая на единицу, и записывают произве- произведения гс((ы(+1J в шестой контрольный столбец; сложив все полученные числа, их сумму 2п((ик + \J помещают в нижнюю клетку столбца. Замечание I. Целесообразно отдельно складывать от- отрицательные числа четвертого столбца (их сумму Л| записывают в клетку строки, содержащей наибольшую частоту) и отдельно по- положительные (их сумму Аг записывают в предпоследнюю клетку столбца); тогда ?«;«,- = Л| -f- Аг. Замечание 2. При вычислении произведений щи( пя- пятого столбца, целесообразно числа щщ четвертого столбца умножать на щ. Замечание 3. Шестой столбец служит для контроля вычислений: если сумма 1лДи; + IJ окажется равной сумме I пц^ + 2 Е гцщ + п (как и должно быть в соответствии с тождест- тождеством ?п((а( + IJ = InjaJ "I" 2Sni«l + ")• то вычисления проведе- проведены правильно. Замечание 4. В качестве ложного нуля может быть взя- взята любая варианта, т. е. не обязательно брать варианту, имеющую наибольшую частоту, как указано в п. 3. Например, если варианта, ьоторая имеет наибольшую частоту, расположена в первых, или пося'диих строках «столбца jtj», то выгоднее принять в качестве ложного нуля варианту, которая находится примерно в середине столбца. 236 После того, как расчетная таблица заполнена и прове- проверена правильность вычислений, вычисляют условные мо- моменты: ^1 Наконец, вычисляют выборочные среднюю и дисперсию по формулам (*) и (****) § 3: х0 = М\ • h + С, Пример. Найти методом произведений выборочные сред- среднюю и дисперсию следующего статистического распреде- распределения: варианты: 10,2 10,4 10,6 10,8 11,0 11,2 11,4 11,6 11,8 12,0 частота: 2 3 8 13 25 20 12 10 6 1 Решение. Составим расчетную таблицу, для чего: 1) запишем варианты в первый столбец; 2) запишем частоты во второй столбец; сумму частот A00) поместим в нижнюю клетку столбца; 3) в качестве ложного нуля выберем варианту 11,0 (эта варианта имеет наибольшую частоту); в клетке треть- третьего столбца, которая принадлежит строке, содержащей наибольшую частоту, пишем 0; над нулем последователь- последовательно —1, —2, —3, —4, а под нулем 1, 2, 3, 4, 5; 4) произведения частот на условные варианты записы- записываем в четвертый столбец; отдельно находим сумму (—46) отрицательных и отдельно сумму A03) положительных чисел; сложив эти числа, их сумму E7) помещаем в нижнюю клетку столбца; 5) произведения частот на квадраты условных вариант запишем в пятый столбец; сумму чисел столбца C83) по- помещаем в нижнюю клетку столбца; 6) произведения частот на квадраты условных вариант, увеличенных на единицу, запишем в шестой контрольный столбец; сумму E97) чисел столбца помещаем в нижнюю клетку столбца. В итоге получим расчетную таблицу 7. 237
Таблица 7 "I 10,2 10,4 10,6 10,8 i 11,0 i 11,2 j 11.4 ¦ 11,6 11.8 12.0 ni 2 3 8 13 25 20 12 10 6 1 n=IOO ui -4 —3 -2 1 0 1 2 3 4 5 ni"i —8 —9 — 16 -13 Ax = — 46 20 24 30 24 5 Аг = 103 In,!/, = 57 2 "/"/ 32 27 32 13 20 48 90 96 25 In,u? = 383 "/(«(+¦)" 18 12 8 0 : 25 : 80 : 108 1 160 : 150 : 36 1 In, (u, + If = 597 [ Контроль: 2","/ + 22"t«i 4- n=383 -f 2-57 + 100=597 ков: , + IJ = 597 Вычисления произведены правильно. Вычислим условные моменты первого и второго поряд- порядл*; = 100 383 100 = 0.57; -3,83 Найдем шаг: /1=10,4—10,2=0,2. Вычислим искомые выборочные среднюю и дисперсию: хв = М\ -Л + С = 0.57- 0,2 + 11.0= 11,1, DB = [Mi - (M\f\ ¦ ft2 = C.83 - @.57J] . 0.2s = 0,14. 238 § 5, Сведение первоначальных вариант к равноотстоящим Выше изложена методика расчета выборочных харак- характеристик для равноотстоящих вариант. На практике, как правило, данные наблюдений tie будут равноотстоя- равноотстоящими числами. Естественно, возникает вопрос: нельзя ли соответствующей обработкой наблюдаемых значений приз пака спсстн вычггслсггня к случаю равноотстоящих вариант? Оказывается, можно. С этой цепью интервал, в котором заключены все наблюдаемые значении признака (первона- (первоначальные варианты), делят на несколько равных частичных интервалов. (Практически в каждый частичный интервал должно попасть не менее 8—10 первоначальных вариант.) Затем находят середины частичных интервалов, которые и образуют последовательность равноотстоящих вариант. В качестве частоты каждой «новой» варианты (середины частичного интервала) принимают общее число первона- первоначальных вариант, попавших в соответствующий частичный интервал. Ясно, что замена первоначальных вариант серединами частггчных интервалов сопровождается ошибками (первона- (первоначальные варианты левой половины частичного интервала будут увеличены, а варианты правой половины уменьшены), однако эти ошибки будут в основном погашаться, поскольку они имеют разные знаки. Пример. Выборочная совокупность объема п=100 за- задана таблицей 8. Таблица 8 .00 ,03 .05 ,06 ,08 ,10 1.12 1.15 1,16 "i 1 3 6 4 2 4 3 6 5 .19 .20 .23 .25 ,26 .29 1.30 1,32 1,33 "i 2 4 4 8 4 4 6 4 5 ,37 ,38 ,39 ,40 ,44 1,45 ,46 .49 ,50 6 2 1 2 3 3 I 2 ! ! 4 ! ! 2 : Составить распределение равноотстоящих вариант. Решение. Разобьем интервал 1,00—1,50, например, на следующие 5 частичных интервалов: 239
1,00—1,10; 1,10—1,20; 1,20—1,30; 1,30—1,40; 1,40—1.50. Приняв середины частичных интервалов в качестве новых вариант yit получим равноотстоящие варианты: f/i=1.05; i/2=l,15; t/3=I,25; f/4=l,35; t/3=l,45 Найдем частоту варианты у{. 2 (Поскольку первоначальная варианта 1,10 одновременно является концом первого частичного интервала и началом второго, частота 4 этой варианты поровну распределена между обоими частичными интервалами.) Найдем частот)' варианты уг: =—- Аналогично вычислим частоты остальных вариант: «з=25; л4=22; лв=15 В итоге получим следующее распределение равноот- равноотстоящих вариант: у, 1,05 1,15 1,25 1,35 1,45 п, 18 20 25 22 15 Рекомендуем читателю в порядке упражнения убедить- убедиться, что выборочные средние и дисперсии, вычисленные по первоначальным и равноотстоящим вариантам, окажутся соответственно равными: *в= 1,250; ув=1,246; D,=0,018; Dy=0,017 Как видим, замена первоначальных вариант равноотстоя- равноотстоящими не привела к существенным ошибкам; при этом объем вычислительной работы значительно уменьшается § 6 Эмпирические и выравнивающие (теоретические) частоты А. Дискретное распределение Рассмотрим дискретную случайную величину X, за- закон распределения которой неизвестен. Пусть произведе- произведено п испытаний, в которых величина X приняла nt раз зна- 240 чение *1, л2 раз значение лг2 пк раз значение хк, при- причем 2п,=п. Эмпирическими частотами называют фактически наблю- наблюдаемые частоты nt. Пусть имеются основания предположить, что изучае- изучаемая величина X распределена по некоторому определенному закону. Для того чтобы проверить, согласуется ли это предположение с данными наблюдений, вычисляют частоты наблюдаемых значений, т. е. находят тео- теоретически сколько раз величина X должна была принять каждое из наблюдаемых значений, если она рас- распределена по предполагаемому закону. Выравнивающими (теоретическими), в отличие от фак- фактически наблюдаемых эмпирических частот, называют час- частоты nt, найденные теоретически (вычислением). Выравнивающие частоты находят по равенству где п — число испытаний, Pi— вероятность наблюдаемого значения xt, вычис" леиная при допущении, что X имеет предполагаемое рас" пределение. Эта формула следует из теоремы о математи" ческом ожидании числа появлений события в независимых испытаниях (гл. VII, § 5). Итак, выравнивающая частота на- наблюдаемого значения ж,, дискретного распределения равна произведению числа испытаний на вероятность это- этого наблюдаемого значения. Пример. В результате эксперимента, состоящего из л=520 испытаний, в каждом из которых регистрировалось число дг, появлений некоторого события, получено следую- следующее эмпирическое распределение: набл. знач. ж, 0 1 234567 эмп. частота п, 120 167 130 69 27 5 1 1. Найти выравнивающие частоты nt, в предположении, что случайная величина X (генеральная совокупность) распре- распределена по закону Пуассона. Решение. Известно, что параметр К, которым опре- определяется распределение Пуассона, равен математическому ожиданию этого распределения. Поскольку в качестве оценки математического ожидания принимают выборочную среднюю (гл. XVI, § 5), то и в качестве оценки X можно 9—43 241
принять выборочную среднюю Хв. Легко найтн по условию, что выборочная средняя равна 1,5; следовательно, можно принять Я.= 1,5. Таким образом, формула Пуассона X* с-х прннимает вид: 1,5»-е-'-5 ftl Пользуясь этой формулой, найдем вероятности Р620 (А) при k=Q, 1, 2, 3, 4, 5, 6, 7 (для простоты записи индекс 520 далее опущен): Р@)=0,22313, РA)=0,33469, РB)= =0,251021, РC)=0,1255И. РD)=0,047066, РE)=0,014120, РF)=0,003530, РG) =0,000755. Найдем выравнивающие частоты (результаты умножения округлены до единицы): „;=п- Р@)=520-0,22313= 116, П2=п- РA)=520- 0,33469= 174. Аналогично находят и остальные выравнивающие частоты. В итоге получим: эмп. частота 123 167 130 69 27 5 1 1 выр. частота 116 174 131 65 25 7 2 0. Сравнительно небольшое расхождение эмпирических и выравнивающих частот подтверждает предположение, что рассматриваемое распределение подчинено закону Пуассона. Заметим, что если подсчитать выборочную дисперсию по данному распределению, то окажется, что она равна выборочной средней, f. e. 1,5. Это служит еще одним под- подтверждением сделанного предположения, поскольку для распределения Пуассона i. = М(Х) = D(X). Б. Непрерывное распределение В случае непрерывного распределения, вероятности отдельных возможных значений равны нулю (гл. X, § 2, следствие 2). Поэтому весь интервал возможных значений делят на k непересекающихся интервалов и вычисляют вероятности Pt попадания X в t'-й частичный интервал, а затем, как н для дискретного распределения, умножают число испытаний на эти вероятности. 242 Итак, выравнивающие частоты не- непрерывного распределения находят но равенству n'i=nPt, где п — число испытаний, Р,— вероятность попадания X в i-й частичный интер- интервал, вычисленная при допущении, что X имеет предполагаемое распределение. В частности, если имеются основания предположить, что случайная величина X (генеральная совокупность) распределена нормально, то выравнивающие частоты | могут быть найдены по формуле ' _ J}JL "в где п — число испытаний (объем выборки), Л — длина частичного интервала, ав— выборочное среднее квадратическое отклонение, и, XI — хв (лс, —середина f-ro частичного интервала), Пример иа применение формулы (*) приведен в § 7. Пояснение. Поясним происхождение формулы (*). На- Напишем дифференциальную функцию общего нормального распределения (JT-O)' /(*) = ——е (**) При а=0 и ст=1 получим дифференциальную функцию нормированного распределения или, изменив обозначение аргумента, и1 Ф («) 243
Положив и = , имеем (***) Сравнивая (**) н (***), заключаем, что Если математическое ожидание а и среднее квадрати- ческое отклонение а неизвестны, то в качестве оценок этих параметров принимают соответственно выборочную сред- среднюю дсв и выборочное среднее квадратическое отклонение ав (гл. XVI, § 5, 9) Тогда — ф(М), ° где В= ^ Пусть х,— середина 1-го интервала (иа которые разбита совокупность всех наблюдаемых значений нормально рас- распределенной случайной величины X) длиною А. Тогда вероятность попадания X в этот интервал приближенно равна произведению длины интервала на значение диффе- дифференциальной функции f(x) в любой точке интервала н, в частности, при x=xt (гл. XI, § 5): Следовательно, выравнивающая частота щ =пР, = — где XI —ХИ "и Мы получили формулу (*) 244 § 7. Построение нормальной кривой по опытным данным Одни из способов построения нормальной кривой по данным наблюдений состоит в следующем. 1) находят хв и (т„, например по методу произведений; 2) находят ординаты г/, (выравнивающие частоты) тео- теоретической кривой по формуле уй = —— • ф (и,), где п — Зв сумма наблюдаемых частот, Л — разность между двумя соседними вариантами ttt = —'~ " иф(ы) = -_-^--е »"; 3) строят точки (*,, «/,) в прямоугольной системе коор* динат и соединяют их плавной кривой. Близость выравнивающих частот к наблюдаемым под- подтверждает правильиость допущеиня о том, что обследуемый признак распределен нормально. Пример. Построить нормальную кривую по данному распределению: варианта х, 15 20 25 30 35 40 45 50 55 частота л, 6 13 38 74 106 85 30 10 4. Решение. Пользуясь методом произведений (§ 4), найдем хв=34,7, (jB=7,38. Вычислим выравнивающие частоты (см. таблицу 9). Таблица 9 *! 15 20 25 30 35 40 45 50 55 б 13 38 74 106 85 30 10 4 „ = 366 с1-*в -19.7 -14,7 -9.7 -4,7 0.3 5,3 10.3 15.3 20,3 _ —2.67 —1.99 -1,31 -0.63 0.05 0,73 1.41 2.09 2,77 0.0113 0.0551 0.1691 0.3271 0,3984 0.3056 0,1476 0.0449 0,0086 = 248 •»(«,) 3 14 ; 42 ! 82 99 ; 76 ; 37 ; 11 i 2 ; i 245
На рис. 22 построены нормальная (теоретическая) кривая по выравнивающим частотам (они отмечены круж- кружками) и полигон наблюдаемых частот (они отмечены крес- крестиками). Сравнение графиков наглядно показывает, что построенная теоретическая кривая удовлетворительно от- отражает данные наблюдений. Для того чтобы более уверенно считать, что данные наблюдений свидетельствуют о нормальном распределении 100 80 60 <;о 20 О 10 ?0 30 40 ЬО 60 ' Рис. 22. признака, пользуются специальными правилами (их на- называют критериями согласия), понятие о которых читатель найдет далее (гл. XIX, § 22). § 8. Оценка отклонения эмпирического распределения от нормального. Асимметрия и эксцесс Для оценки отклонения эмпирического распределения от нормального используют различные характеристики, к числу которых относятся асимметрия и эксцесс. Опреде- Определения этих характеристик аналогичны определениям асимметрии и эксцесса теоретического распределения (гл. XII, § 9). Асимметрия эмпирического распределения определяется равенством: 246 где т3— центральный эмпирический момент третьего по- порядка (§ 2). Эксцесс эмпирического распределения определяется ра- равенством: е„ = -г -3, где mt— центральный эмпирический момент четвертого порядка. Моменты т3 и т4 удобно вычислять методом произве- произведений (§ 4), используя формулы (***) § 3. Пример. Найти асимметрию н эксцесс эмпирического распределения: варианта 10,2 10,4 10,6 10,8 11,0 11,2 11,4 11,6 11,8 12,0 частота 2 3 8 13 25 20 12 10 6 1 Решение. Воспользуемся методом произведений, для чего составим расчетную таблицу. Поскольку в § 4 указано, как заполняются столбцы 1—5 таблицы, ограни- ограничимся краткими пояснениями: для заполнения столбца 6 удобно перемножать числа каждой строки столбцов 3 и 5; для заполнения столбца 7 удобно перемножать числа каждой строки столбцов 3 и 6. Столбец 8 служит для кон- контроля вычислений по тождеству: Приведем расчетную таблицу 10. Контроль: 2«i «I + 1L = 9141; = 4079 + 4 • 609 + 6 • 383 + 4 • 57 + 100 = 9141. Совпадение сумм свидетельствует о том, что вычисления произведены правильно. В Примере § 4 для рассматриваемого распределения было найдено: /И,* =0,57; /И2*=3,83; De=0,14, следовательно, о„ = J/7U4*- 247
Таблица 10 щ 10.2 10,4 10.6 10,8 2 2 3 8 13 11,01 ?5 П.2 11,4 tl.6 11,8 12.0 20 12 10 6 1 r«=100 3 Щ —4 —3 -2 — 1 0 1 2 3 4 5 4 fJjU, —8 —9 — 16 —13 —46 20 24 30 24 5 103 = 57~ 5 32 27 32 13 20 48 90 96 25 V * = 383 6 3 -128 —81 —64 — 13 —286 20 % 270 384 125 895 2 ntuf = = 609 l ntu) 512 243 128 13 20 192 810 1536 625 = 4079 8 • гц (и, -f 1)* j 162 : 48 j 8 I — i 25 j 320 : 972 | 2560 i 3750 1 1296 ; + 1)^=9141! Найдем условные моменты третьего н четвертого порядка! 4079 100 40,79. Найдем центральные эмпирические моменты третьего- и четвертого порядка: т3 = [М'3 — ЗЛОИ& + 2 [М]K] Л* = = [6,09 - 3 • 0,57 • 3,83 + 2 . @.57K] • 0,2s - - 0,0007; mt = [Аи - 4М\Л& + 6 [M'lf Ml - 3 {М\L] h* = - [40,79 — 4 • 0,57 • 6,09 + 6 @,57)" • 3.83 - — 3 • @.57L] • 0,2* - 0,054 Найдем асимметрию и эксцесс: «.-5-- Замечание. В случае малых выборок к оценкам асиммет- асимметрии и эксцесса следует относиться с осторожностью и находить точность этих оценок (см. Н. В. Смирнов н И. В Дуннн-Барковский Курс теории вероятностей и математической статистики Наука 1965, стр 277). Задачи В задачах I—2 даны выборочные варианты и их частоты. Най- Найти, пользуясь методом произведений выборочные среднюю и дис- дисПерсию 1. ГЦ 2. *1 «I 10.3 4 83 6 10,5 7 85 87 7 12 10,7 8 89 15 10,9 10 91 93 30 10 11,1 25 95 8 11, 15 3 Отв. 97 6 99 4 11,5 I2 *в — 101 2. 117 10 11,19. 11,9 12,1 4 5. 0„=О,19. Отв. «в—90,72, DB—17,20. S. Найти асимметрию и эксцесс эмпирического распределения х, 10,6 10,8 II 0 11.2 11,4 11.6 11,8 „. 5 10 17 30 20 12 6. Отв. оЛ-=—0,0006. е» =» 0,00004. Глава восемнадцатая ЭЛЕМЕНТЕ! ТЕОРИИ КОРРЕЛЯЦИИ § 1. Функциональная, статистическая и корреляционная зависимости Во многих задачах требуется установить и оценить за- зависимость изучаемой случайной величины Y от одной или нескольких других величии. Рассмотрим сначала зависи- зависимость У от одной случайной (илн неслучайной) величины X, а затем от нескольких величии (§ 15). Две случайные величины могут быть связаны функ- функциональной зависимостью (гл. XII, § 10), либо зависи- зависимостью другого рода, называемой статистической, либо быть независимыми. Строгая функциональная зависимость реализуется ред- редко, так как обе величины или одна из них подвержены еще 24'.)
действию случайных факторов, причем среди них могут быть и общие для обеих величин (под «общими» здесь под- подразумеваются такие факторы, которые воздействуют и на К и на X). В этом случае возникает статистическая зави- зависимость. Например, если Y зависит от случайных факторов zlt z2, vlt v2, а X зависит от случайных факторов zit zit uit то между Y и X имеется статистическая зависимость, так как среди случайных факторов есть общие, а именно Z, и Z2. Статистической называют зависимость, при которой изменение одной из величин влечет изменение распреде- распределения другой. В частности, статистическая зависимость проявляется в том, что при изменении одной из величин изменяется среднее значение другой; в этом случае стати- статистическую зависимость называют корреляционной. Приведем пример случайной величины Y, которая не связана с величиной X функционально, а связана корре- корреляционно. Пусть Y — урожай зерна, X — количество удобрений. С одинаковых по площади участков земли при равных количествах внесенных удобрений снимают раз- различный урожай, т. е. Y не является функцией от X. Это объясняется влиянием случайных факторов (осадки, тем- температура воздуха и др.). Вместе с тем, как показывает опыт, средний урожай является функцией от количества удобрений, т. е. Y связан с X корреляционной зависи- зависимостью. § 2. Условные средние. Корреляционная зависимость Уточним определение корреляционной зависимости, для чего введем понятие условной средней. Предположим, что изучается связь между случайной величиной Y н случайной величиной X. Пусть каждому значению X соответствует несколько значений Y. Напри- Например, пусть при *i=2 величина Y приняла значения: #1=5, «/2=6, Уз=Ю. Найдем среднее арифметическое этих чисел: - __ 6 + 6+Ю _ - У% з - • 250 Число уг называют условным средним; черточка над бук- буквой у служит обозначением среднего арифметического, а число 2 указывает, что рассматриваются те значения К, которые соответствуют дсй=2. Применительно к примеру предыдущего параграфа эти данные можно истолковать так: на каждый из трех одинаковых участков земли внесли по 2 единицы удобре- удобрений н сняли соответственно 5; 6 и 10 единиц зерна; средний урожай составил 7 соответствующих единиц. Условным средним ух называют среднее арифметичес- арифметическое значений Y, соответствующих значению Х=х. ^ Если каждому значению х соответствует одно значение условной средней, то, очевидно, условная средняя есть функция от х; в этом случае говорят, что случайная ве- величина Y зависит от X корреляционно. Корреляционной зависимостью Y от X называют функ- функциональную зависимость условной средней ух от х: ?,=/(*)• (*) Уравнение (*) называют уравнением регрессии Y на X; функцию f(x) называют регрессией К на X, а ее график — линией регрессии У на X. _ Аналогично определяется условная средняя ху, и кор- корреляционная зависимость X от Y. Условным средним ху называют среднее арифметическое значений X, соответствующих Y=y. Корреляционной зависимостью X от Y называют функ- функциональную зависимость условной средней ху от у: xy=<f(y)- {**) Уравнение (**) называют уравнением регрессии X на К; функцию ч>{у) называют регрессией X на К, а ее график — линией регрессии X на К. § 3. Две основные задачи теории корреляции Первая задача теории корреляции — установить фор- форму корреляционной связи, т. е. вид функции регрессии (ли- (линейная, квадратичная показательная и т. д.). Наиболее часто функции регрессии оказываются линейными. Если обе функции регрессии f(x) и у>(у) линейны, то корреляцию называют линейной; в противном случае — нелинейной. Очевидно, при линейной корреляции обе линии регрессии являются прямыми линиями. 251
Вторая задача теории корреляции — оценить тесноту (силу) корреляционной связи. Теснота корреляционной за- зависимости К от X оценивается по величине рассеяния зна- значений Y вокруг условного среднего ух. Большое рассеяние свидетельствует о слабой зависимости К от X либо об отсутствии зависимости. Малое рассеяние указывает на- наличие достаточно сильной зависимости; возможно даже, что К и X связаны функционально, но под воздействием второстепенных случайных факторов эта связь оказалась размытой, в результате чего при одном и том же значении х величина Y принимает различные значения. Аналогично (по величине рассеяния значений X во- вокруг условного среднего ху) оценивается теснота корре- корреляционной связи X от Y. § 4. Отыскание параметров выборочного уравнения прямой линии регрессии по иесгруппированным данным Допустим, что количественные признаки X н Y свя- связаны линейной корреляционной зависимостью. В этом случае обе лннни регрессии будут прямыми. Предположим, что для отыскания уравнений этих пря- прямых проведено л независимых испытаний, в результате которых получены л пар чисел: (*1. У\). (*2. Уй) (*п. Уп)- Поскольку наблюдаемые пары чисел можно рассматривать как случайную выборку из генеральной совокупности всех возможных значений случайной величины (X, К), то ве- величины и уравнения, найденные по этим данным, называют выборочными. Для определенности будем искать выборочное уравне- уравнение прямой линии регрессии Y на X. Рассмотрим простейший случай: различные значения х признака X и соответствующие нм значения у признака Y наблюдались по одному разу. Очевидно, что группиро- группировать данные нет необходимости. Также нет надобности использовать понятие условной средней, поэтому искомое уравнение f можно записать так: 252 Y=kx+b. Угловой коэффициент прямой линии регрессии Y на X принято называть выборочным коэффициентом регрессии К на X и обозначать через рух. Итак, будем искать выборочное уравнение прямой ли- линии регрессии К на X вида: Y=pyxx+b. (•) Поставим своей задачей подобрать параметры рух и Ь так, чтобы точки (хи у,) (хг, у? (дс„, «/„), построенные по данным наблюдений на плоскости XOY, как можно ближе лежали вблизи прямой (*). Уточним смысл этого требования. Назовем отклонением разность Yt-Ui (f-1, 2 л), где Y,— вычисленная по уравнению (*) ордината, соот- ветсгвующая наблюдаемому значению х,; t)i— наблюдаемая ордината, соответствующая xt. Подберем параметры рух н Ь так, чтобы сумма квадратов отклонений была минимальной (в этом состоит сущность метода наименьших квадратов). Так как каждое отклонение зависит от отыскиваемых параметров, то и сумма квадратов отклонений есть функ- функция F этих параметров (временно вместо рул будем писать Р): F(P, Ь) =%<У, - или Для отыскания минимума приравняем нулю соответствую- соответствующие частные производные: Выполнив элементарные преобразования, получим сис- систему двух линейных уравнений' относительно р и Ь* п * Для простоты записи вместо 2 будем писать V" 253
= 2> (**) Решив эту систему, найдем искомые параметры: Г*) Аналогично можно иайти выборочное уравнение пря- прямой линии регрессии X на У: где рлу— выборочный коэффициент регрессии X иа Y. Пример. Найтн выборочное уравнение прямой линии регрессии К иа X по данным л=5 наблюдений: де 1.00 1,50 3,00 4,50 5,00; у 1,25 1,40 1,50 1,75 2,25. Решение. Составим расчетную таблицу 11. Твблица II ! 1,оо : 1,50 1 3,00 ! 4.50 i 5,00 *| 1,25 1,40 1,50 1,75 2,25 2ш=8.15 А 1,00 2,25 9,00 20.25 25,00 2У, = 57.50 1,250 ! 2,100 ! 4,500 ! 4.875 i 11,250 i 2 хт =26,975 ! Найдем искомые параметры, для чего подставим вы- вычисленные по таблице суммы в соотношения (***): Pv,= 5-26,975-15-8,15 _ yx 5-57.5-152 57.5-8,15—15-26.975 _ 62.5 254 Напишем искомое уравнение регрессии: К=0,202х+1,024. Для того чтобы получить представление, насколько хорошо вычисленные по этому уравнению значения Yt согласуются с наблюдаемыми эначеииямн yt, найдем откло- отклонения Yt—yt. Результаты вычислений сведены в табли- таблицу 12. Таблица 12 "i 1.00 1.50 3,00 4,50 5,00 1.226 1,327 1,630 1,933 2,034 1.25 1.40 1,50 1.75 2,25 vl-vl —0,024 —0,073 0,130 0.083 —0,216 Как видно нз таблнцы, не все отклонения достаточно малы. Это объясняется малым числом наблюдений. § 5. Корреляционная таблица При большом числе наблюдений одно н то же значение х может встретиться пх раз, одно и то же значение у может встретиться лу раз, одна и та же пара чисел (х, у) может наблюдаться пху раз. Поэтому^ даииые наблюдений груп- группируют, т. е. подсчитывают частоты пх, пу, пху. Все сгруп- сгруппированные данные записывают в виде таблицы, которую называют корреляционной. Поясним устройство корреляционной таблнцы на при- примере (табл. 13). i Y ~*-^_ 0.4 0.6 0,8 nx 10 5 — 3 8 20 — 2 19 21 30 7 6 — 13 40 14 4 — 18 Таблица % 26 12 22 13 ) ! i 2Г>5
В первой строке таблицы указаны наблюдаемые зна- значения A0; 20; 30; 40) признака X, а в первом столбце — наблюдаемые значения @,4; 0,6; 0,8) признака Y. На пере- пересечении строк и столбцов вписаны частоты пху наблюдаемых пар значений признаков. Например, частота 5 указывает, что пара чисел A0; 0,4) наблюдалась 5 раз. Вес частоты помещены в прямоугольнике, стороны которого проведены жирными отрезками. Черточка означает, что соответствен- соответственная пара чисел, например B0; 0,4), не наблюдалась. В последнем столбце записаны суммы частот строк. Например, сумма частот первой строки жирного прямо- прямоугольника равна лу=5+7+14=26; это число указывает, что значение признака К, равное 0,4 (в сочетании с различ- различными значениями признака X) наблюдалось 26 раз. В последней строке записаны суммы частот столбцов. Например, число 8 указывает, что значение признака X, равное 10 (в сочетании с различными значениями признака Y) наблюдалось 8 раз. В клетке, расположенной в нижнем правом углу таблицы, помещена сумма всех частот (общее число всех наблюде- наблюдений л). Очевидно 2лх=2лу=л. В нашем примере 2 «,=8+21 + 13+18=60 и 2 лу=26+12+22=60. § 6. Отыскание параметров выборочного уравнения прямой линии регрессии по сгруппированным данным. Выборочный коэффициент корреляции В § 4 для определения параметров уравнения прямой линии регрессии Y на X была получена система уравне- уравнений: (*) Предполагалось, что значения X и соответствующие им значения Y наблюдались по одному разу. Теперь же допустим, что получено большое число данных (практи- (практически для удовлетворительной оценки искомых парамет- параметров должно быть хотя бы 50 наблюдений), среди них есть повторяющиеся, н оин сгруппированы в виде корреля- корреляционной таблицы. Запишем систему (*) так, чтобы она 256 отражала данные корреляционной таблицы. Воспользуем- Воспользуемся тождествами: 2*= я* (следствие из ~х = = пу (следствие из у = следствие из хг = ^пхуху (учтено, что пара чисел (дс, у) наблюда- наблюдалась пху раз). Подставив правые части тождеств в систему (*) н сок- сократив обе части второго уравнения на л, получим: (**) (л?) рух + (л*) Ь = 2 пхуху; (*) ?ух + Ь = у. Решив эту систему, найдем параметры pyjt и Ь и, сле- следовательно, искомое уравнение: Однако более целесообразно, введя новую величину — коэффициент корреляции, написать уравнение регрессии в ином виде. Сделаем это. Найдем Ь из второго уравнения (**): Ь=~у-Рухх. Подставив правую часть этого равенства в уравнение ух=р jS+Ь, получим: У-У=РуМ-х). Найдем нэ системы (*) коэффициент регрессии, учитывая, что 3?—(ГJ=о* (гл. XVI, § 10): _ Рух~ — пху — пху Умножим обе части равенства на дробь ^-: П1хЗу 257
Обозначим правую часть равенства через гв н назовем ее выборочным коэффициентом, корреляции: ryjt = г. В> ИЛИ Подставив правую часть этого равенства в (***), оконча- окончательно получим выборочное уравнение прямой линни рег- регрессии Y иа X вида Ух— V-'Bifcl*— *» Замечание 1. Аналогично находят выборочное уравве аие примой линии регрессии X на К вида где Замечание 2. Уравнения прямых регрессии могут быть ивписаиы в более симметричной форме'. ~ ~ .. х — х Замечание 3. Выборочный коэффициент корреляции име- имеет важное самостоятельное значение. Как следует из предыдущего, выборочный коэффициент корреляции определяете и равенством где я, {/ — парнвиты (наблюдавшиеся значения; признаков X и К' пХу — частота наблюдавшейся пары вариант (х, у); _ п_—объем выборки (сумма всех частот); х, у — выборочные средние; Зд. ,оу — выборочное средние квадратические отклонеиня 258 § 7. Свойства выборочного коэффициента корреляции Приведем свойства выборочного коэффициента корре- корреляции, из которых следует, что он служит для оценки тес- тесноты линейной корреляционной зависимости. Воспользуемся формулами (вывод опускаем): Sy=Dy(l-r|); Sx = Dx[l-rl), где Sy— дисперсия наблюдавшихся значений у вокруг соответствующих условных средних ух; Dy— дисперсия наблюдавшихся значений у вокруг общей средней у. Аналогичный смысл имеют дисперсии Sx, Dx. 1. Абсолютная величина выборочного коэффициента кор- корреляции не превосходит единицы. Доказательство. Любая дисперсия неотрица- неотрицательна. В частности, Sy = Dy(l-r|)>0. Следовательно, Отсюда или 2. Если выборочный коэффициент корреляции равен нулю и выборочные линии регрессии — прямые, то X и Y не связаны линейной корреляционной зависимостью. Доказательство. При гв =0 уравнение выбо- выборочной прямой регрессии К иа X Ух-У = гъ±\х- имеет вид: или 259
вид При гв =0 уравнение прямой регрессии X на Y имеет ху = х. Таким образом, при гв =0 условные средние сохраняют постоянное значение при изменении соответствующих аргу- аргументов; в этом смысле можно считать, что X и К не связаны линейной корреляционной зависимостью. Очевидно, в рас- рассматриваемом случае прямые регрессии параллельны соответствующим координатным осям. Замечание. Если выборочный коэффициент корреляции равен нулю, то признаки X и И могут быть связаны и е л н н е ft - ной корреляционной или даже функциональной зависимостью 3. Если абсолютная величина выборочного коэффициен- коэффициента корреляции равна единице, то наблюдаемые значения признаков связаны линейной функциональной зависимо- зависимостью. Если \гв\ = 1, то Sy = Dy(I — rg) = 0. Можно показать, что отсюда следует равенство: y — y—rB-?[x — x) = O. Как видим, любая наблюдаемая пара чисел (х, у) удовлет- удовлетворяет этому линейному относительно хну уравнению, т. е. значения признаков в выборке связаны линейной функ- функциональной зависимостью. Заметим, что отсюда еще нельзя уверенно заключить, что и в генеральной совокупности признаки связаны линейной функциональной зависимо- зависимостью (при репрезентативной выборке большого объема за- зависимость между признаками нормально распределенной генеральной совокупности будет близка к линейной, или даже будет линейной). 4. С возрастанием абсолютной величины выборочного коэффициента корреляции линейная корреляционная за- зависимость становится более тесной и при \гв\ =1 перехо- переходит в функциональную зависимость. Доказательство. Из формул Sy = Dy(t-rB), Sx = DAl-rB) видно, что с возрастанием абсолютной величины лц дис- дисперсии Sy и Sx убывают, т. е. уменьшается рассеяние 260 наблюдаемых значений признаков вокруг условных сред- средних, а это и означает, что связь между признаками стано- становится более тесной и при \гв\ = 1, как следует из свойства 3, переходит в функциональную. Из приведенных свойств вытекает смысл гв: выборочный коэффициент корреляции характеризует тесноту линей- линейной связи между количественными признаками в выборке: чем ближе \гв\ к 1, тем связь сильнее; чем ближе |гв| к 0, тем связь слабее. Если выборка имеет достаточно большой объем и хорошо представляет генеральную совокупность (репрезентатив- (репрезентативна), то заключение о тесноте линейной зависимости между признаками, полученное по данным выборки, в известной степени может быть распространено и на генеральную со- совокупность. Например, для оценки коэффициента корре- корреляции г, нормально распределенной генеральной совокуп- совокупности (при гс>50) можно воспользоваться формулой !ГП Замечание I. Знак выборочного коэффициента корре- корреляции совпадает со знаком выборочных коэффициентов регрессия что следует из формул (§ 4): °У о, С) Замечание 2. Выборочный коэффициент корреляции ра- равен среднему геометрическому выборочных коэффициентов регрес- регрессии. Действительно, перемножив левые и правые части-равеиств(') получим] Pyjc Pxy = '%• Отсюда Знак при радикале, в соответствии с замечанием I, должен совпа- вать со знаком коэффициентов регрессии § 8. Метод четырех полей вычисления выборочного коэффициента корреляции Пусть требуется по данным корреляционной таблицы вычислить выборочный коэффициент корреляции. Можно 261
значительно упростить вычисления, если перейти к услов- условным вариантам: И Vf — Аа В этом случае выборочный коэффициент корреляции вы- вычисляется по формуле (переход к условным вариантам не изменяет величины гв): пиу "О — Величины и, v, ои и в„ могут быть вычислены по методу произведений (гл. XVII, § 4). Остается указать способ вычисления ?nuVui>. Этой цели н служит метод четырех полей. Название метода связано с тем, что строка и столбец, пересекающиеся в клетке, содержащей наибольшую час- частоту, делят корреляционную таблицу на 4 части, которые называют полями. Поля нумеруются так, как указано в таблице 14. Таблица 14 0 i ш 0 иаиб. частота II IV Покажем, как ведется расчет, для чего ограничимся пока полем I. Пусть часть таблнцы 14, содержащая первое поле, представлена в виде таблицы 15. Таблица 15 -2 -3 -2 5 ; ¦ -1 ! — | 20 j : - — 23 262 Найдем произведения пар вариант м и » н поместим их в верхние правые углы клеток, содержащих соответствен- соответственные частоты. Например, пара вариант и=—3 и v=—2 наблюдалась 5 раз; произведение до—(—3)-(—2)=6 по- помещаем в верхний правый угол клетки, содержащей час- частоту 5. Заполнив подобным образом остальные клетки первого поля, получим таблицу 16. 2 —1 —3 5 \± Таблица -2 LL 7 20 -1 - 23 16 Аналогично заполняются клетки н остальных полей. Таким образом, в каждой клетке (содержащей частоту Пдо), оказывается записанным н произведение uv, остается перемножить два числа пт н uv каждой клетки и резуль- результаты сложить; в итоге получим искомое число ?,nuvuv. Для удобства контроля вычислений найденные произ- произведения чисел «„t, и uv каждой клетки суммируются от- отдельно по каждому полю, причем подсчет ведется н по стро- строкам и по столбцам каждого поля: сумму чисел п^'Ш строки поля выписывают в тот нэ дополнительных столб- столбцов, помещенных справа, который имеет номер того поля, числа которого складывались. Сумму чисел п^-ии стол- столбца поля выписывают в ту из дополнительных строк, поме- помещенных внизу, которая имеет номер того поля, числа кото- которого складывались. Суммы чисел отдельно по каждому полю записывают в правом нижнем углу таблнцы в четы- четырех итоговых клетках. Наконец, складывая все числа ито- итоговых клеток, находят искомое число. Схематически расчетная таблица представлена в виде таблицы 17. Поясним, как заполнена 1аблнца 17 (для большей на- наглядности расчет ведется лишь для первого поля). 263
Та 6 л и па 17 -2 —1 ! 0 j 1 i 111 -3 51- — 30 —2 71- 20'- ... 68 -i — „Li- 23 0 ианб частота A IV 11 IV 1 58 63 A1 121 HI и ! IV t 11 ! < Найдем суммы произведений nav и ю по отрокам пер- первого поля E-6+7.4=58; 20-2+23-1=63) и поместим их в дополнительный столбец 1. Найдем суммы произведений nutl и ш по столбцам пер- первого поля E-6=30; 7-4+20-2=68; 23-1=23) и помес- поместим их в дополнительную строку I. Найдем сумму чисел дополнительного столбца I E8+63=121) и запишем ее в первую итоговую клетку (в правом нижнем углу таблицы). Для контроля сложим все числа дополнительной строки C0+68+23=121). Аналогично ведется расчет и по остальным полям. Пример. Вычислить выборочный коэффициент корреля- корреляции по данным корреляционной таблицы 18. Решение Перейдем к условным вариантам: (в качестве ложного нуля ct взята х-с, «-40 А, 10 варианта *=40, имеющая наибольшую частоту; шаг ht равен разности между двумя соседними вариантами: 264 Таблица 18 15 25 35 45 55 j «л 10 Б — — — — 5 20 7 20 — — — 27 30 — 23 30 10 — 63 40 — — 47 11 9 67 50 — — 2 20 7 29 60 : — — — 6 3 9 пу 12 43 79 47 19 «=200 20—10 = 10). и * = 10 (в качестве лож- ложного нуля с2 взята варианта ^=35, имеющая наибольшую частоту; шаг Аг равен разности между двумя соседними ва- вариантами 25—15=10). Составим корреляционную таблицу в условных вариан- вариантах. Практически это делают так: в первом столбце вместо варианты C5), имеющей наибольшую частоту, пишут 0; над нулем пишут последовательно —1, —2; под нулем пишут 1, 2. В первой строке вместо варианты D0), имеющей наибольшую частоту, пишут 0; слева от нуля последователь- последовательно записывают —1, —2, —3; справа от нуля пишут 1, 2. Все остальные данные переписывают из первоначальной корреляционной таблицы. В итоге получим корреляционную таблицу 19 в_условных вариантах. Величины и, », а„ и о„ можно найти методом произве- произведений; однако поскольку числа и,, vj малы, вычислим и и 1), исходя из определения средней, а о„ и av, пользуясь формулами (гл. XVI, § 10): 265
Таблица 19 -2 —1 0 1 2 па —3 : 5 — — — — 5 -2 7 20 — — — 27 "I — 23 30 10 — 63 0 — — 47 11 9 67 i — — 2 20 7 29 8 — — — 6 3 9 nv | 12 : 43 j 79 47 19 л=200 : Найдем и н хк R 200 = —0.425; - = ДягР _ 12-(-2)+43. (-1)+47. 1 + 19-2 g n 200 Вычислим вспомогательную величину И*, а затем ои: -j _ 5.9 + 27-4 + 63. 1+29- 1 +9.4 ~ 200 = oa=Vtf — (пJ = К 1.405-0,425* = 1,106. Аналогично получим av=1,209. Найдем Елвфй» методом четырех полей, для чего сос- составим расчетную таблицу 20. 2G6 Табли ца 20 -2 —1 0 1 2 1 111 -а 5^ — — — 30 — -2 4 7 — 20'^ — — 68 — —1 — 23'— — 23 -10 0 11 IV — — 20'— — 34 2 — — i 58 63 111 — 10 14: з^—! - — 24 121 -10 И — j 1 IV | 32 j 26 — 58 1 Сложив числа итоговых клеток D клетки в нижнем правом углу таблицы 20), получим 2лиои» = 121 -Л0 + 58 = 169. Найдем искомый коэффициент корреляции: _ 169-200-(-0.425)-0,09 200- 1.106- 1,209- q 603 Итак, г. =0.603. § 9. Пример иа отыскание выборочного уравнения прямой линии регрессии Теперь, когда известно как вычисляют гв, уместно привести пример на отыскание уравнения прямой лиини регрессии. 267
Поскольку при нахождении г. уже вычислены и, t\ ov, то целесообразно пользоваться формулами: й"Л, с,, 8 8 Здесь сохранены обозначения предыдущего параграфа. Ре- Рекомендуем читателю самостоятельно вывести эти формулы. Пример. Найти выборочное уравнение прямой линии регрессии У на X по данным корреляционной таблицы 18 примера предыдущего параграфа. Решение. Напишем искомое уравнение в общем виде: Коэффициент корреляции уже вычислен в предыдущем параграфе. Остается иайти х, ~у, о, и оу: *=пй|+с,=—0,425-10+40=35,75; с,=0,09-10+35=35,9; ht= 1,106-10= 11,06; •10=12,09. Подставив найденные величины в (•), получим искомое уравнение ух - 35.9 - 0.603 -?§• (* _ 35.75), II 06 .06 или окончательно у,=0,659х+12,34 Сравним условные средние, вычисленные: а) по этому уравнению; б) по данным корреляционной таблицы 18 Например, при *=30: а) "^30=0,659-30+12,34=32,11; б) у,- 23-25+30.35+ ,0. 45 _ 63 Как видим, согласование расчетного и наблюдаемого условных средних — удовлетворительное. § 10. Предварительные соображения к введению меры любой корреляционной связи Выше рассматривалась оценка тесноты линейной кор- корреляционной связи. Как оценить тесноту любой корре- корреляционной связи? Пусть данные наблюдений иад количественными приз- признаками X и К сведены в корреляционную таблицу. Можно считать, что тем самым наблюдаемые значения У разбиты иа группы; каждая группа содержит те значения У, ко- которые соответствуют определенному значению X. Например, дана корреляционная таблица 21. i Таблица 21 ! 3 ! 5 I "л \ Ух а 4 6 10 4.2 " 9 13 j 7 1 20 j 3,7 ! К первой группе относятся те 10 значений У D раза наблюдалось yt=3 и 6 раз уг—5), которые соответствуют *,=8. Ко второй группе относятся те 20 значений У A3 раз наблюдалось yt=3 и 7 раз уъ=Ъ), которые соответствуют Условные средние теперь можно назвать групповыми средними: групповая средняя первой группы уг = |ф —4,2; групповая средняя второй группы у^ '»'^-> ,8.7. 269
Поскольку все значения признака У разбиты на груп- группы, можно представить общую дисперсию признака в виде суммы внутригрупповой и межгрупповой дисперсий (гл. XVI, § 12): Покажем справедливость следующих утверждений: 1) если Y связан с X функциональной зависимостью, то Днежгр D, 1; общ если Y связан с X корреляционной зависимостью, то Доказательство. I) Если Y связан с X ф у н- кциональной зависимостью, то опреде- определенному значению X соответствует одно значение Y. В этом случае в каждой группе содержатся равные между собой значения Y*, поэтому групповая дисперсия каждой группы равна нулю. Следовательно, средняя арифметичес- арифметическая групповых дисперсий (взвешенная по объемам групп), т. е. внутригрупповая дисперсия Д,НГр=0 и равенство (*) имеет вид Отсюда - Д "межгр иежгр- = 1. 2) Если Y связан сХкорреляционной за- зависимостью, то определенному значению X соот- соответствуют, вообще говоря, различные значения Y (обра- (образующие группу). В этом случае групповая дисперсия каж- каждой группы отлична от нуля. Следовательно, средняя ариф- арифметическая групповых дисперсий (взвешенная по объемам * Например, если значению xi = 3 соответствует yi = 7, причем xi = 3 наблюдалось 5 раз, то в группе содержится 5 значе- значений 01 = 7. 270 групп) ^внгрт^О- Тогда (одно положительное слагаемое — ^ меньше суммы двух положительных слагаемых -'вигр Отсюда -'межгр Уже из приведенных рассуждений видно, что чем связь между признаками ближе к функциональной, тем меньше ^внгр и, следовательно, тем больше будет приближаться а значит отношение "еж1». к единице. Отсюда Ь>5 к ясно, что целесообразно рассматривать в качестве меры тесноты корреляционной зависимости отношение межгруп- межгрупповой дисперсии к общей или, что то же, отношение меж- межгруппового среднего квадратического отклонения к обще- общему среднему квадратнческому отклонению. § 11. Выборочное корреляционное отношение Для оценки тесноты линейной корреляционной связи между признаками в выборке служит выборочный коэф- коэффициент корреляции. Для- оценки тесноты нелинейной корреляционной связи вводят новые сводные характерис- характеристики: Цух — выборочное корреляционное отношение К к X; х]ху — выборочное корреляционное отношение X к У. Выборочным корреляционным отношением К к X на- называют отношение межгруппового среднего квадратичес- квадратического отклонения к общему среднему квадрагическому отклонению признака Y °мсжгр ! ¦ °обш или в других обозначениях: V = -if ¦ 271
Здесь °s — г ^ межгр где п — объем выборки (сумма всех частот); пх — частота значения х признака X; Пу — частота значения у Признака Y; у — общая средняя признака Y; ух — условная средняя признака Y. Аналогично определяется выборочное корреляционное отношение К к У: Пример. Найти цух по данным корреляционной табли- таблицы 22. Таблица 22 15 25 "х Ух 10 4 6 10 21 20 28 - 28 15 30 6 6 12 20 пУ 38 12 я=50 Решение. Найдем общую среднюю -_ S"yy _ 38-15+12-25 _ .. V~ n ~ 50 ~ 272 Найдем общее среднее квадратическое отклонение -- ' 38A5—17,4)" + 12 B5 - \1 A V Б0 = 4,27. Найдем межгрупповое среднее квадратическое отклонение B1 - 17,4)' + 28 A5- 17.4)' + 12 B0 - 16,4)» во Искомое корреляционное отношение 4,27 § 12. Свойства выборочного корреляционного отношения Поскольку г\ху обладает теми же свойствами, что и щх, перечислим свойства только выборочного корреляционного отношения г\уХ, которое далее для упрощения записи будем обозначать через ц и для простоты речи называть «корре- «корреляционным отношением». 1. Корреляционное отношение удовлетворяет двойному неравенству: Доказательство. Неравенство т)>0 следует из того, что т) есть отношение неотрицательных чисел — сред- средних квадратических отклонений (межгруппового к об- общему). Для доказательства неравенства т]<[1 воспользуемся формулой "общ — *^онгр "Г 10—43 273
Разделив обе части равенства на получим: мсжгр ИЛИ Так как оба слагаемых неотрицательны и сумма их равна единице, то каждое из них не превышает единицы; в част- частности Приняв во внимание, что заключаем: 2. Если т)=0, то и признак Y с признаком X корреля- корреляционной зависимостью не связан. Доказательство. По условию Отсюда Змежгр — эобш и, следовательно, ft. = 0. -'межгр Межгрупповая дисперсия есть дисперсия условных (групповых) средних ух относительно общей средней у~. Равенство нулю межгрупповой дисперсии означает, что при всех значениях X условные средине сохраняют по- постоянное значение (равное общей средней). Иными словами, при i]=0 условная средняя не является функцией от X, а значит признак Y не связан корреляционной зависи- зависимостью с признаком X. Замечание 1. Можно доказать и обратное предложение: если признак К не связан с признаком X корреляционном зависи- зависимостью, то ij = 0. 3. Если п=1, то признак У связан с признаком X функ- функциональной зависимостью. 274 Доказательство. По условию °исжгр  = Зобш 1. Отсюда обш — 'межгр1 Возведя обе части равенства в квадрат, получим ^обш = Так как 'мемир- (*) то, в силу (*) =0. Г*) Поскольку внутригрупповая дисперсия есть средняя арифметическая групповых дисперсий (взвешенная по объе- объемам групп), то из (**) следует, что дисперсия каждой группы (значений Y, соответствующих определенному значению X) равна нулю. А это означает, что в группе содержатся равные значения Y, т. е. каждому значению X соответствует одно значение К. Следовательно, при rj=l признак К связан с признаком X функциональной зависимостью. Замечание 2. Можно доказать и обратное предложение: если признак У связан с признаком X функциональной зависи- зависимостью ТО 1] = 1. Приведем еще два свойства, опустив доказательства. 4. Выборочное корреляционное отношение не меньше абсолютной величины выборочного коэффициента корре- корреляции: 5. Если выборочное корреляционное отношение равно абсолютной величине выборочного коэффициента корреля- корреляции, то имеет место точная линейная корреляционная за- зависимость. Другими словами, если rj= |rB|, то точки (*ь Уд. (*г. f/г) (хп, Уп) лежат на прямой линии регрессии, найденной способом наи- наименьших квадратов. 10* 275
§ 13. Корреляционное отношение как мера корреляционной связи. Достоинства н недостатки этой меры В предыдущем параграфе установлено: при т)=0 приз- признаки не связаны корреляционной зависимостью; прн т)=1 имеет место функциональная зависимость. Убедимся, что с возрастанием т) корреляционная связь становится более тесной. С этой целью преобразуем соот- соотношение D, ибщ: А-нго + Д межгр так: или DDlirp=Do6lu(l-r1*). Если iH-1, то DDllrp-*.O, следовательно, стремится к нулю н каждая из групповых дисперсий. Другими словами, при возрастании т) значения Y, соответствующие определенному значению X, все меньше различаются между собой и связь К с X становится более тесной, переходя в функциональ- функциональную, прн т)=1. Поскольку в рассуждениях не делалось никаких допу- допущений о форме корреляционной связи, услужит ме- мерой тесноты связи любой, втом числе нлннейиой, формы. В этом состоит преимущество корреляционного отношения перед коэффициентом корре- корреляции, который оценивает тесноту лишь линейной зави- зависимости. Вместе с тем, корреляционное отношение обладает недостатком: оно не позволяет судить, насколько близко расположены точки, найденные по дан- данным наблюдений, к кривой определенного вида, например к параболе, гиперболе и т. д. Это объясняется тем, что прн определении корреляционного отношения форма связи во внимание не принималась § 14. Простейшие случаи криволинейной корреляции Если график регрессии "yx=f(x) нлн ху=<р(#) изобра- изображается кривой линией, то корреляцию называют криво- криволинейной 27G Например, функции регрессии К на X могут иметь вид: ух=ах*+Ьх+с (параболическая корреляция второго порядка); уг=о*3+6л:24-слН-4 (параболическая корреляция третьего порядка); ух=—+Ь (гиперболическая корреляция). Теория криволинейной корреляции решает те же за- задачи, что и теория линейной корреляции (установление формы н тесноты корреляционной связи). Неизвестные параметры уравнения регрессии ищут ме- методом наименьших квадратов. Для оценки тесноты криво- криволинейной корреляции служат выборочные корреляционные отношения (§ 11). Чтобы выяснить суть дела, ограничимся параболической корреляцией второго порядка, предположив, что данные л наблюдений (выборки) позволяют считать, что имеет место именно такая корреляция. В этом случае выборочное уравнение регрессии К на X имеет вид: ух = Ах* + Вх + С, (*) где А, В, С — неизвестные параметры. Пользуясь методом наименьших квадратов, получают систему линейных уравнений относительно неизвестных параметров (вывод опущен, поскольку он не содержит ни- ничего нового сравнительно с § 4):_ B V') А + B л B пхх*) А + B + B Пхх*) С=2.пх Ухх*; + B пхх) С = 2 пхухх; (**) Найденные из этой системы параметры А, В, С подстав- подставляют в (*) в итоге получают искомое уравнение регрессии. Пример. _Найти выборочное уравнение регрессии Y на X вида ух =Ахг+Вх+С по данным корреляционной таблицы 23. Составим расчетную таблицу 24. Подставив числа (суммы) нижней строки таблицы 24 в (**), получим систему: 74,98 Л+67,48 В+60,89 С=413,93, 67,48 Л+60,89 В+55,10 С=373,ЗО, 60,89 Л+55,10 В+50 С=337,59. 277
Таблица 23 6 7 I 7.5 \ пх Ух I 8 — — 8 6 |.| 2 30 1 33 6,73 1.2 - — 9 9 7.5 "у 10 30 ¦о 1 п=5о; Таблица 24 X 1 1,2 ! I nx 8 33 9 50 V 6 6. 7, X 73 5 8 36 10 55 с* ,3 ,8 ,1 nx 8 39, 12, 60, jt« 93 96 89 V 8 43,93 15,55 67.48 -, 8 48. 18, 74, X» 32 66 98 "*» 48 222, 67. 337, X 09 50 59 48 244 81 373 30 W1 48 268 97 30U13 73 20 93; Решив эту систему, найдем: А = 1,94, В=2,98, С=1,Ю. Напишем искомое уравнение регрессии: ?,=1.94 *2+2.98 лг+1,10. Легко убедиться, что условные средние, вычисленные по этому уравнению, незначительно отличаются от услов- условных средних корреляционной таблицы. Например, при Х!=1 найдем: по таблице {/|=6; по уравнению у~,= 278 = 1,94+2,98+1,10=6,02. Таким образом, найденное урав- уравнение хорошо согласуется с данными наблюдений (выбор- (выборки). § 15. Понятие о множественной корреляции До настоящего параграфа рассматривалась корреля- корреляционная связь между двумя признаками. Если же иссле- исследуется связь между несколькими признаками, то корре- корреляцию называют множественной. S.B простейшем случае число признаков равно трем, и счязь между ними линейная: г=ах+Ьу+с. В этом случае возникают задачи: 1) найти по данным наблюдений выборочное уравнение связи вида г=Ах+Ву+С, (*) т. е. требуется найти коэффициенты регрессии А и В и параметр С; 2) оценить тесноту связи между Z и обоими признаками X, У; 3) оценить тесноту связи между Z и X (при постоянном Y), между Z и У (при постоянном X). Первая задача решается методом наименьших квадра- квадратов, причем вместо уравнения (*).удобнее искать уравне- уравнение связи вида _ г—г=А(х—х)+В(у—у), где гхг — rxy t — f xz rxy Здесь rxz, ryz, rxv — коэффициенты корреляции соответ- соответственно между признаками X и Z, У и Z, X н К; о,, ov, о, — средние квадратические отклонения. * Теснота связи признака Z с признаками X, У оцени- оценивается выборочным совокупным коэффициентом корре- корреляции: причем 0</?<1. 279
Теснота связи между Z и X (при постоянном Y), между Z и К (при постоянном X) оценивается соответственно частными выборочными коэффициентами корреляции: fxx — Лгу гуг "~ fxy г xy гхг Эти коэффициенты имеют те же свойства и тот же смысл, что и обыкновенный выборочный коэффициент корреля- корреляции, т. е. служат для оценки линейной связи между приз- признаками. Задачи В задачах 1 —2 даны корреляционные таблицы. Найти: а) гв; б) выборочные уравнения прямых регрессии, в) -цух н и^у. 10 20 30 40 50 «jt ! Их б 2 б 3 — — 10 21 10 _ 4 8 3 — 16 29.33 IS — I 6 6 2 15 36 20 — — 3 6 1 10 38 "у 2 10 20 15 3 п =50 Гу 8 12,26 16 16,67 От. а) 0,636; б) ^=1 ху=0,345у+1,б7| в) чуд=0,656 0 280 30 40 50 60 70 Пх Ух 65 : i 5 4 — — — 9 34. »4 9S — 12 ! 8 1 — 21 44,76 123 j — — б б — Ю 55 1» ; — — 4 7 — II 56.36 185 — — — 2 1 3 63,33 215 — — — — 1 1 70 "у 5 16 17 1Б 2 /1=55 Гу 65 87.5 101,18 145 200 От. а) 0,825; б) уЛ=0.23х+21.78. х,=2.92«—27,261 в) %*=0,859, ^=0,875. В задачах 3—4 найти пыборочнае уравнения регрессии у _, Ах*+Вх +С по данным корреляционной таблицы. 1Ь 45 110 2 20 - — 20 а — 30 1 31 6 - 1 48 49 "У 20 31 49 1= 100 ! От. ?(=2,94лЧ-7.27ж— -1,25. 281
4. 2 6 i nx ¦ 30 I 31 2 1 18 19 "y 31 19 я = 50 1 Отв. ух=*Q,39x*+ 2,49*- -0,75. Глава девятнадцатая СТАТИСТИЧЕСКАЯ ПРОВЕРКА СТАТИСТИЧЕСКИХ ГИПОТЕЗ § I. Статистическая гипотеза. Нулевая и конкурирующая, простая и сложная гипотезы Часто необходимо знать закон распределения генераль- генеральной совокупности. Если закон распределения неизвестен, но имеются основания предположить, что он имеет опре- определенный вид (назовем его А), выдвигают гипотезу: ге- генеральная совокупность распределена по закону А. Та- Таким образом, в этой гипотезе речь идет о виде пред- предполагаемого распределения. Возможен случай, когда закон распределения известен, а его параметры неизвестны. Если есть основания пред- предположить, что неизвестный параметр в равен определенному значению во, выдвигают гипотезу: 6 = во- Таким образом, в этой гипотезе речь идет о предполагаемой величине параметра одного известного рас- распределения. Возможны и другие гипотезы: о равенстве параметров двух или нескольких распределений, о независимости выборок и многие другие. Статистической называют гипотезу о виде неизвест- неизвестного распределения, или о параметрах известных распре- распределении. 282 Например, статистическими будут гипотезы: 1) генеральная совокупность распределена по закону Пуассона; 2) дисперсии двух нормальных совокупностей равны между собой. В первой гипотезе сделано предположение о виде неиз- неизвестного распределения, во второй — о параметрах двух известных распределений. Гипотеза «в 1980 г. не будет войны» не является стати- статистической, поскольку в ней не идет речь ни о виде, нн о параметрах распределения. Наряду с выдвинутой гипотезой рассматривают и про- противоречащую ей гипотезу. Если выдвинутая гипотеза Й' !д,ег отвергнута, то имеет место противоречащая гипотеза. о этой причине эти гипотезы целесообразно различать. Нулевой (основной) называют выдвинутую гипотезу Но. Конкурирующей (альтернативной) называют гипотезу Hit которая противоречит нулевой. Например, если нулевая гипотеза состоит в предполо- предположении, что математическое ожидание а нормального рас- распределения равно 10, то конкурирующая гипотеза, в част- частности, может состоять в предположении, что аф\0. Ко- Коротко это записывают так: W0:a=10; Ht: аф\0. Различают гипотезы, которые содержат только одно и более одного предположений. Простой называют гипотезу, содержащую только одно предположение. Например, если к — параметр показатель- показательного распределения, то гипотеза Но: Х=5 — простая. Ги- Гипотеза Wo: математическое ожидание нормального рас- распределения равно 3 (о известно) — простая. Сложной называют гипотезу, которая состоит из конеч- конечного или бескрнечного числа простых гипотез. Например, сложная гипотеза Н : Х>5 состоит нз бесчисленного мно- множества простых вида Ht : "k=blt где 6е— любое число, большее 5. Гипотеза Но: математическое ожидание нор- нормального распределения равно 3 (о неизвестно) — слож- сложная. § 2. Ошибки первого и второго рода Выдвинутая гипотеза может быть правильной или не- неправильной, поэтому возникает необходимость ее провер- проверки. Поскольку проверку производят статистическими мс- 283
тодами, ее называют статистической. В итоге статистичес- статистической проверки гипотезы в двух случаях может быть при- принято неправильное решение, т. е. могут быть допущены ошибки двух родов. Ошибка первого рода состоит в том, что будет отвергнута правильная гипотеза. J Ошибка второго рода состоит в том, что будет принята неправильная гипотеза. ? Подчеркнем, что последствия этих ошибок могут ока- оказаться весьма различными. Например, если отвергнуто правильное решение «продолжать строительство жилого дома», то эта ошибка первого рода повлечет материальный ущерб; если же принято неправильное решение «продол- «продолжать строительство», несмотря на опасность обвала строй- стройки; то эта ошибка второго рода может повлечь гибель лю- людей. Разумеется, можно привести примеры, когда ошибка первого рода влечет более тяжелые последствия, чем ошиб- ошибка второго рода. Замечание 1. Правильное решение может быть принято также в двух случаях: 1) гипотеза принимается, причем и в действительности она правильная; 2) гипотеза отвергается, причем и в действительности она не- неверна. Замечание 2. Вероятность совершить ошибку первого рода принято обозначать через а; ее называют уровнем значимости. Наиболее часто уровень значимости принимают равным 0,05 илн 0,01. Если, например, принят уровень значимости равный 0,05, то это означает, что в пяти случаях нз ста мы рискуем допустить ошибку первого рода (отвергнуть_правнльную гипотезу). § 3. Статистический критерий проверки нулевой гипотезы. Наблюдаемое значение критерия Для проверки нулевой гипотезы используют специаль- специально подобранную случайную величину, точное илн при- приближенное распределение которой известно. Эту вели- величину обозначают через U или Z, если она распределена нормально, F или с2— по закону Фишера — Снедекора, Т — по закону Стьюдента, х2— по закону «хи квадрат» и т. д. Поскольку в этом параграфе вид распределения во внимание приниматься не будет, обозначим эту величину, в целях общности, через К. 284 Статистическим критерием (или просто критерием) называют случайную величину К, которая служит для проверки нулевой гипотезы. Например, если проверяют гипотезу о равенстве дис- дисперсий двух нормальных генеральных совокупностей, то в качестве критерия К принимают отношение исправлеиных выборочных дисперсий: Эта величина случайная, потому что в различных опытах дисперсии будут принимать различные, наперед неизвест- неизвестные значения и распределена по закону Фишера — Сне- Снедекора. Для проверки гипотезы по данным выборок вычисляют частные значения входящих в критерий величин, и таким образом получают частное (наблюдаемое) значение кри- критерия. Наблюдаемым значением Киавл назначают значение критерия, вычисленное по выборкам. Например, если по двум выборкам, извлеченным из нормальных генеральных совокупностей, найдены исправ- исправленные выборочные дисперсии st*=20 и s,2=5, то наблю- наблюдаемое значение критерия F гнабл 20 5 § 4. Критическая область. Область принятия гипотезы.. Критические точки После выбора определенного критерия, множество всех его возможных значений разбивают на два непересекаю- непересекающихся подмножества: одно из них содержит значения кри- критерия, при которых нулевая гипотеза отвергается, а дру- другое — при которых она принимается. Критической областью называют совокупность зна чений критерия, при которых нулевую гипотезу отверг- гают. Областью принятия гипотезы (областью допустимых значений) называют совокупность значений критерия, при которых гипотезу принимают. 28"
Рнс. 23. Основной принцип проверки статистических гипотез можно сформулировать так: если наблюдаемое значение критерия принадлежит критической области — гипотезу отвергают, если наблюдаемое значение критерия принад- принадлежит области принятия гипотезы — гипотезу принимают. Поскольку критерий К — одномерная случайная ве- величина, все ее возможные значения принадлежат некото- некоторому интервалу. Поэтому критическая область и область принятия гипотезы также являются интервалами и, сле- следовательно, существуют точки, которые их разделяют. Критическими точками (гра- (границами) &кр называют точки, отделяющие критическую об- и к^. *~к ласть от области принятия гипо- гипотезы. К Различают одиосторо инюю (правостороннюю или левосто- левостороннюю) и двустороннюю кри- "" тические области. Правосторонней называют критическую область, опреде- определяемую неравенством /С>йкр, где kKf — положительное число (рис. 23, а). Левосторонней называют критическую область, опре- определяемую неравенством /С<*кр, где ?кр — отрицательное число (рис. 23, б). Односторонней называют правостороннюю или лево- левостороннюю критическую область. Двусторонней называют критическую область, опре- определяемую неравенствами K<k,, K.>h, где *2>*|- В частности, если критические точки симметричны от- относительно нуля, двусторонняя критическая область оп- определяется неравенствами (в предположении, что йир >0): K<-kKp, K>kKp, или равносильным неравенством \K\>kKp (рис. 23, в). § 5. Отыскание правосторонней критической области Как найти критическую область? Обоснованный ответ на этот вопрос требует привлечения довольно сложной тео- теории. Ограничимся ее элементами. Для определенности 286 начнем с нахождеиия правостороиией критической области, которая определяется неравенством где ?„р>0. Мы видим, что для отыскания правосторонней крити- критической области достаточно найти критическую точку. Следовательно, возникает новый вопрос: как ее найти? С этой целью задаются достаточно малой вероятностью — уровнем значимости а. Затем ищут критическую точку kKP, ' исходя из требования, чтобы, при условии справедливости нулевой гипотезы, вероятность того, что критерий К при- примет значение, большее kKf, была равна принятому уров- уровню значимости: Для каждого критерия имеются соответствующие таблицы, по которым и находят критическую точку, удовлетворяю- удовлетворяющую этому требованию. Замечание 1. Когда критическая точка уже найдена, вычисляют по данным выборок наблюденное значение крнтерня н, если окажется, что Ки»бл > *кр. то нулевую гипотезу отвергают! если же Киабл < *кр *о нет оснований, чтобы отвергнуть нулевую гипотезу. Пояснение. Почему правосторонняя критическая об- область была определена, исходя из требования, чтобы при справедливости нулевой гипотезы выполнялось соотно- соотношение P(K>kKf)=a> (*) Поскольку вероятность события /С>йкр мала (а — малая вероятность), такое событие, при справедливости нулевой гипотезы, в силу принципа практической невозможности маловероятных событий, в единичном испытании ие дол- должно наступить (гл. II, § 4). Если все же оно произошло, т. е. наблюдаемое значение критерия оказалось больше Акр, то это можно объяснить тем, что нулевая гипотеза ложиа и, следовательно, должна быть отвергнута. Таким образом, требование (*) определяет такие значения крите- критерия, при которых нулевая гипотеза отвергается, а они и составляют правостороннюю критическую область. Замечание 2. Наблюдаемое значение критерия может оказаться большим &кр не потому, что нулевая гипотеза ложна, а по другим причинам (малый объем выборки, недостатки методики 287
эксперимента н др.). В этом случае, отвергнув правильную нулевую гипотезу, совершают ошибку первого рода. Вероятность этой ошиб- ошибки равна уровню значимости а. Итак, пользуясь требованием (*), мы с вероятностью а рискуем совершить ошибку первого рода. Заметим кстати, что в книгах пб контролю качества продукции, вероятность признать негодной партию годных изделий называют «риском производителя», а вероятность принять негодную партию— «риском потребителя». Замечание 3. Пусть нулевая гипотеза принята; ошибоч- ошибочно думать, что тем самым она доказана. Действительно, известно, что один пример, подтверждающий справедливость некоторого общего утверждения еще не доказывает его. Поэтому более правиль- правильно говорить «данные наблюдений согласуются с нулевой гипотезой и, следовательно, не дают оснований ее отвергнуть». На практике для большей уверенности принятия гипотезы, ее проверяют другими способами, илн повторяют эксперимент, уве- увеличив объем выборки. Отвергают гипотезу более категорично, чем принимают. Дейст- Действительно, известно, что достаточно привести один пример,противо- пример,противоречащий некоторому общему утверждению, чтобы это утверждение отвергнуть. Если оказалось, что наблюдаемое значение критерия принадлежит критической области, то этот факт и служит приме- примером, противоречащим нулевой гипотезе, что позволяет ее откло- отклонить. § 6. Отыскание левосторонней и двусторонней критических областей Отыскание левосторонней и двусторонней критических областей сводится (так же, как и для правосторонней) к нахождению соответствующих критических точек. Левосторонняя критическая область определяется (§ 4) неравенством /С<*кр(*Кр<0). Критическую точку находят, исходя из требования, чтобы при справедливости нулевой гипотезы, вероятность того, что критерий примет значение, меньшее &кр, была равна принятому уровню значимости: Двусторонняя критическая область определяется (§ 4) неравенствами /«&,, /С>*2. Критические точки находят, исходя из требования, чтобы, при справедливости нулевой гипотезы, сумма ве- вероятностей того, что критерий примет значение меньшее к, или большее k2, была равна принятому уровню значи- значимости: 288 Ясно, что критические точки могут быть выбраны бесчис- бесчисленным множеством способов. Если же распределение кри- критерия симметрично относительно нуля и имеются основа- основания (например, для увеличения мощности*) выбрать сим- симметричные относительно нуля точки — &кр и kKp (kKp >0), то P(K<-kKp)=P(K>kKp). Учитывая (*), получим Это соотношение и служит для отыскания критических точек двусторонней критической области. Как уже было указано (§ Б), критические точки находят по соответствующим таблицам. § 7. Дополнительные сведения о выборе критической области. Мощность критерия Мы строили критическую область, исходя из требования, чтобы вероятность попадания в иее критерия была равна а, при условии, что нулевая гипотеза справедлива. Оказы- Оказывается целесообразным ввести в рассмотрение вероятность попадания критерия в критическую область при условии, что нулевая гипотеза неверна и, следовательно, справед- справедлива конкурирующая. Моиуюапью критерия называют вероятность попадания критерия в критическую область, при условии, что спра- справедлива конкурирующая гипотеза. Другими словами, мощ- мощность критерия есть вероятность того, что нулевая гипо- гипотеза будет отвергнута, если верна конкурирующая гипо- гипотеза. , v и.-ч^ Пусть для проверки гипотезы принят определенный уровень значимости и выборка имеет фиксированный объем. Остается произвол в выборе критической области. Пока- Покажем, что ее целесообразно построить так, чтобы мощность критерия была максимальной. Предварительно убедимся, что если вероятность ошибки второго рода (принять неправильную гипотезу) равна р, * Определение мощности даио в § 7. 289
то мощность равна 1—р. Действительно, если р — вероят- вероятность ошибки второго рода, т. е. события «принята нуле- нулевая гипотеза, причем справедлива конкурирующая», то вероятность противоположного события «бтвергнута нуле- нулевая гипотеза, причем справедлива конкурирующая», т. е. мощность критерия равна 1—р. Пусть мощность 1—р возрастает; следовательно, умень- уменьшается вероятность р совершить ошибку второго рода. Та- Таким образом, чем мощность больше, тем вероятность ошиб- ошибки второго рода меньше. Итак, если уровень значимости уже выбран, то кри- критическую область следует строить так, чтобы мощность критерия была максимальной. Выполнение этого требования обес- обеспечит минимальную ошибку второго рода, что, конечно, желательно. Замечание 1. Поскольку вероятность события «ошибка второго рода допущена» равна D, то вероятность противоположного события «ошибка второго рода не допущена» равна 1—3, т. е. мощ- мощности критерия. Отсюда Следует, что мощность критерия есть ве- вероятность того, что не будет допущена ошибка второго рода. Замечание 2. Ясно, что чем меньше вероятности ошибок первого н второго рода, тем критическая область «лучше». Однако, при заданном объеме выборки, уменьшить одновре- одновременно о Hji невозможно: если уменьшать а, то р будет возрастать. Например, гелн принять а = 0, то будут приниматься все гипотезы, в том числе н неправильные, т. е. возрастает вероят- вероятность р ошибки второго рода. Как же выбрать а наиболее целесообразно? Ответ на этот по- прос зависит от «тяжести последствий» ошибок для каждой конк- конкретной задачи. Например, если ошибка первого рода повлечет боль- большие потерн, а второго рода — малые, то следует принять возмож- возможно меньшее а. Если а уже выбрано, то пользуясь теоремой Ю. Неймана и Э. Пирсона, изложенной в более полных курсах, можно построить критическую область, для которой Э будет минимальным н. следо- следовательно, мощность критерия максимальной Замечание 3. Единственный способ одновремен- одновременного уменьшения вероятностей ошибок первого и второго рода состоит в увеличении объема выборок. § 8. Сравнение двух дисперсий нормальных генеральных совокупностей На практике задача сравнения дисперсий возникает, если требуется сравнить точность приборов, инструментов, са- самих методов измерений и т. д. Очевидно, предпочтительнее 290 тот прибор, инструмент и метод, который обеспечивает наименьшее рассеяние результатов измерений, т. е. наи- наименьшую дисперсию. Пусть генеральные совокупности X и К распределены нормально. По независимым выборкам объемов п.\ и п2, извлеченным из этих совокупностей, найдены исправленные выборочные дисперсии s% и sfy. Требуется по исправленным дисперсиям, при заданном уровне значимости а, прове- проверить нулевую гипотезу, состоящую в том, что генеральные дисперсии рассматриваемых совокупностей равны между собой: Но : D(X)=D(Y). Учитывая, что исправленные дисперсии являются не- несмещенными оценками генеральных дисперсий (гл. XVI, § 13), т. е. MWX]=D(X), M[s$) = D(Y), нулевую гипотезу можно записать так: Wo : МЫ) = МШ. Таким образом, требуется проверить, что математичес- математические ожидания исправленных выборочных дисперсий рав- равны между собой. Такая задача ставится потому, что обычно исправленные дисперсии оказываются различными. Воз- Возникает вопрос: значимо (существенно) или иезиа- чимо, различаются исправленные ди- дисперсии? Если окажется, что нулевая гипотеза справедлива, т. е. генеральные дисперсии одинаковы, то различие ис- исправленных дисперсий незначимо и объясняется случай- случайными причинами, в частности, случайным отбором объек- объектов выборки. Например, если различие исправленных вы- выборочных дисперсий результатов измерений, выполненных двумя приборами, оказалось незначимым, то приборы имеют одинаковую точность. Если нулевая гипотеза будет отвергнута, т. е. генераль- генеральные дисперсии неодинаковы, то различие исправленных дис- дисперсий значимо и ие может быть объяснено случайными причинами, а является следствием того, что сами генераль- генеральные дисперсии различны. Например, если различие исправ- исправленных выборочных дисперсий результатов измерений, произведенных двумя приборами, оказалось значимым, то точность приборов различна. 291
В качестве критерия проверки нулевой гипотезы о ра- равенстве генеральных дисперсий, примем отношение боль- большей исправленной дисперсии к меньшей, т. е. случайную величину Величина F, при условии справедливости нулевой ги- гипотезы имеет распределение Фишера—Снедекора (гл. XII, § 15) со степенями свободы kl=nl—l и ?2=«z— !• где nt— объем выборки, по которой вычислена большая ис- исправленная дисперсия, п2— объем выборки, по которой найдена меньшая дисперсия. Напомним, что распределение Фишера—Сиедекора за- зависит только от чисел степеней свободы и ие зависит от других параметров. Критическая область строится в зависимости от вида конкурирующей гипотезы. Первый случай. Нулевая гипотеза Нй: D( =D(Y). Конкурирующая гипотеза Ht : D(X)>D(Y). В этом случае строят одностороннюю, а именно право- правостороннюю, критическую область, исходя из требования, чтобы вероятность попадания критерия F в эту область, в предположении справедливости нулевой гипотезы, была равна принятому уровню значимости: PlF>FKp(a, kit ?,01=0 Критическую точку FKp(a, k,, кг) находят по таблице критических точек распределения Фишера—Снедекора (при- (приложение 7) и тогда правосторонняя критическая область определяется неравенством а область принятия нулевой гипотезы неравенством F<FKP. Обозначим отношение большей исправленной диспер- дисперсии к меньшей, вычисленное по данным наблюдений, че- через FHa6ji и сформулируем правило проверки нулевой ги потезы. Правило I. Для того чтобы, при заданном уровне зна- значимости, проверить нулевую гипотезу Но : D(X)=D(Y) 292 о равенстве генеральных дисперсий нормальных совокуп- совокупностей, при конкурирующей гипотезе Ht: D(X)>D(Y), надо вычислить отношение большей исправленной диспер- дисперсии к меньшей, т. е. гна6л ' 4 и по таблице критических точек распределения Фишера — Сиедекора, по заданному уровню значимости а и числам степеней свободы kt и k2 {kt— число степеней свободы большей исправленной дисперсии), найти критическую точ- точку FHaun(a, kit k2). Если Fm6j><Fkp— иет оснований отвергнуть нулевую гипотезу. Если Fn<a,>FKf) — нулевую гипотезу отвергают. Пример I. По двум независимым выборкам объемов nt=12 и «2=15, извлеченным из нормальных генеральных совокупностей X н Y, найдены исправленные выборочные дисперсии sj&=ll,41 и s?=6,52. При уровне значимости 0,05, проверить нулевую гипотезу Нй: D(X)=D{Y) о ра- равенстве генеральных дисперсий, при конкурирующей ги- гипотезе Hi: D{X)>D(Y). Решение. Найдем отношение большей исправленной дисперсии к меньшей: = 1,75. Так как конкурирующая гипотеза имеет вид D(X)>D(Y), критическая область — правосторонняя. По таблице (приложение 7), по уровню значимости а=0,05 и числам степеней свободы At=12—1 = 11 и ?2= = 15—1 = 14, находим критическую точку FKP@,05; 11; 14)=2,57. Так как /^аол-еСЯкр — иет оснований отвергнуть ну- нулевую гипотезу о равенстве генеральных дисперсий. Здесь и далее критические точки для уровня значимости 0; 0.5 взяты нз табл. VI книги, указанной в сноске на стр 331; иа уровне значимости 0; 0,1 критические точки помеще- помещены в приложении 7 настоящей книги. Второй случай. Нулевая гипотеза Но: D(X)= =D(K). Конкурирующая гипотеза Hv: D(X)=fcD(Y). В этом случае строят двустороннюю критическую об- область, исходя из требования, чтобы вероятность попадания 293
критерия в эту область, в предположении справедливости нулевой гипотезы, была равна принятому уровню значи- значимости а. Как выбрать границы критической области? Оказывает- Оказывается, что наибольшая мощность (вероятность попадания критерия в критическую область, при справедливости конкурирующей гипотезы) достигается тогда, когда вероят- вероятность попадания критерия в каждый из двух интервалов критической области равна -|. Таким образом, если обозначить через F, левую грани- границу критической области и через F2— правую, то должны иметь место соотношения (рис. 24): 2 F, Рнс. 24. Мы видим, что достаточно найти критические точки, чтобы найти саму критическую область: u F>F2, а также область принятия нулевой гипотезы: Fl<F<F2. Как практически отыскать критические точки? Правую критическую точку F2=-FKp( ~, kiy k2) находят непосредственно по таблице критических точек распреде- распределения Фишера—Снедекора по уровню значимости |- и степеням свободы kt a k2. Однако, левых критических точек эта таблица не со- содержит и поэтому найти Ft непосредственно по таблице невозможно. Существует способ, позволяющий преодолеть это за- затруднение. Однако, мы не будем его описывать, поскольку можно левую критическую точку и не отыскивать. Ограни- Ограничимся изложением того, как обеспечить попадание кри- 294 терия F в двустороннюю критическую область с вероят- вероятностью, равной принятому уровню значимости а. Оказывается достаточно найти правую критическую точку F2 при уровне значимости, вдвое меньшем заданного. Тогда ие только вероятность попадания критерия в «пра- «правую часть» критической области (т. е. правее F2) равна -|, ио и вероятность попадания этого критерия в «левую часть» критической области (т. е. левее F,) будет также равна у. Так как этн события несовместны, то вероятность попада- попадания рассматриваемого критерия во всю двустороннюю кри- критическую область будет равна -g- -f -j- = a. Таким образом, в случае конкурирующей гипотезы Ну: D{X)=?D(Y), достаточно иайти критическую точку Правило 2. Для того чтобы, при заданном уровне зна- значимости а проверить нулевую гипотезу о равенстве гене- генеральных дисперсий нормально распределенных сово- совокупностей, при конкурирующей гипотезе А/, : D(X)=?D(Y), надо вычислить отношение большей исправленной дис- дисперсии к меньшей, т. е. FH4f>n = -; и по таблице критичес- ких точек распределения Фишера—Сиедекора по уровню значимости 4 (вдвое меньшем заданного) и числам степе- степеней свободы kt и k\ (?|— число степеней свободы большей дисперсии) иайти критическую точку FKp (у, kt, к2). Если /^абл < Лф — нет оснований отвергнуть нулевую гипотезу. Если /=¦„„&, > FKp — нулевую гипотезу отвергают. Пример 2. По двум независимым выборкам объемов «!=10 и п2—18, извлеченным из нормальных генеральных совокупностей X и К, найдены исправленные выборочные дисперсии si = 1,23 и #=0,41. При уровне значимости а=0,1 проверить нулевую гипотезу о равенстве генераль- генеральных дисперсий, при конкурирующей гипотезе HD(X)^ DY) 3. Решение. Найдем отношение большей исправленной дисперсии к меньшей: F '.23 иабл Oj41 295
По условию конкурирующая гипотеза имеет вид ( (Y), поэтому критическая область — двусторонняя, б уровню () у р По таблице, по значимости, вдвое меньшем заданного, т. е. при у= -у-=0,05 и числам степеней свободы /fet= 10—1=9,Л2=18—1 = 17, находим кри- критическую точку FKp @,05; 9; 17)=2,50. Так как FHa&, > FKp. нулевую гипотезу о равенстве ге- генеральных дисперсий отвергаем. Другими словами, выбо- выборочные исправленные дисперсии разлнчакмся значимо. Например, если бы рассматриваемые дисперсии характери- характеризовали точность двух методов измерений, то следует пред- предпочесть тот метод, который имеет меньшую дисперсию @,41). § 9. Сравнение исправленной выборочной дисперсии с гипотетической генеральной дисперсией нормальной совокупности Пусть генеральная совокупность распределена нормаль- нормально, причем генеральная дисперсия, хотя и неизвестна, но имеются основания предполагать, что она равна гипоте- гипотетическому (предполагаемому) значению аог. На практике (V устанавливается иа основании предшествующего опы- опыта, или теоретически. Пусть из генеральной совокупности извлечена выборка объема п и по ней найдена исправленная выборочная дис- дисперсия S2 с k=n—1 степенями свободы. Требуется по исправленной дисперсии, при заданном уровне значимости, проверить нулевую гипотезу, состоящую в том, что гене- генеральная дисперсия рассматриваемой совокупности равна гипотетическому значению о08- Учитывая, что S2 является несмещенной оценкой гене- генеральной дисперсии, нулевую гипотезу можно записать так: Итак, требуется проверить, что математическое ожида ние исправленной дисперсии равно гипотетическому зна- значению генеральной дисперсии Другими словами, т р е- буетоя установить значимо, или не- незначимо, различаются исправленная выборочная и гипотетическая гене- генеральная дисперсии. 296 На практике рассматриваемая гипотеза проверяется, если нужно проверить точность приборов, инструментов, станков, методов исследования и устойчивость техноло- технологических процессов. Например, если известна допустимая характеристика рассеяния контролируемого размера де- деталей, изготавливаемых станком-автоматом, равная отД а найденная по выборке исправленная дисперсия окажется значимо больше <joz, то станок требует подналадки. В качестве критерия проверки нулевой гипотезы при- примем случайную величину '"~^ . Эта величина случай- случайная, потому что в разных опытах Sz будет принимать раз- различные, наперед неизвестные значения. Поскольку мож- можно доказать, что она имеет распределение ха с k=n— 1 степенями свободы (гл. XII, § 13), обозначим ее через хг> Итак, критерий проверки нулевой гипотезы Критическая область строится в зависимости от вида конкурирующей гипотезы. Первый случай. Нулевая гипотеза Нй:<jz=<J(A Конкурирующая гипотеза Wt: о'х*»2. В этом случае строят правостороннюю критическую область, исходя из требования, чтобы вероятность попада- попадания критерия в эту область, в.предположении справедли- справедливости нулевой гипотезы, была равна принятому уровню значимоега: Критическую точку х*р (а, *) находят по таблице критических точек распределения xz (приложение 5) и тогда правосторонняя критическая область определяется неравенством а область принятия нулевой гипотезы неравенством Обозначим значение критерия, вычисленное по данным наблюдений, через Хнавл и сформулируем правило про- проверки нулевой гипотезы. 207
Правило I. Для того чтобы, при заданном уровне зна- значимости а проперить нулевую гипотезу Н0:а2=в02 о ра- равенстве неизвестной генеральной дисперсии нормальной совокупности гипотетическому значению, при конкурирую- конкурирующей гипотезе Hi: а2 > а02, надо вычислить наблюдаемое значение критерия хшлл = J— и по таблице крити- ческих точек распределения у*, по заданному уровню зна- значимости а и числу степеней свободы k=n—1, найти кри- критическую точку унР(о, к). Если Хиабл<х«р — пет оснований отвергнуть нулевую гипотезу. Если хиабл>Х.кр — нулевую гипотезу отвергают. Пример 1. Из нормальной генеральной совокупности извлечена выборка объема п=13 и по ней найдена исправ- исправленная выборочная дисперсия sB=14,6. Требуется, при уровне значимости 0,01, проверить нулевую гипотезу НК:аг—а^—\2, приняв в качестве конкурирующей ги- гипотезы //|:(jz>12. Решение. Найдем наблюденное значение критерия 2 _ :¦ 1) S» _ A3-1). 14,6 4 12 14,6. По условию конкурггрующая гипотеза имеет вид ^^, поэтому критическая область правосторонняя. По таблице (приложение 5), по уровню значимости 0,01 и числу степеней свободы k=n—1 = 13—1 = 12, нахо- находим критическую точку Хкр@,01; 12)=26,2 Так как Хнавл<Хкр — пет оснований отвергнуть нулевую гипотезу. Другими словами, различие между исправленной дисперсией 44,6) и гипотетической генеральной дисперсией A2) — незначимое Второй олучай. Нулевая гипотеза r/01 a*= =Оов. Конкурирующая гипотеза r/t: о*Фо02. В этом случае строят двустороннюю критическую об- область, исходяиз требования, чтобы вероятность попадания критерия в эту область, в предположении справедливости нулевой гипотезы, была равна принятому уровню значи- значимости а. Критические точки — левую и правую границы крити- критической области — находят, требуя, чтобы вероятное™ попадания критерия в каждый из двух интервалов криги 298 ческой области была равна -|-: В таблице критических точек распределения у2 указаны лишь «правые» критические точки, поэтому возникает ка- кажущееся затруднение в отыскании «левой» критической точки. Это затруднение легко преодолеть, если принять во внимание, что события Хлев, кр Х2<Хлеа. кр Н X2: противоположны и, следовательно, сумма их вероятностей равна единице: Р (х* < Хлев, кр ) + Р (Х2 > Хлев, кр ) = 1. Отсюда '-лев. кр Мы видим, что левую критическую точку можно искать как правую (и значит ее можно найти но таблице), исходя из требования, чтобы вероятность попадания критерия в интервал, расположенный правее этой точки, была рав- на 1-f Правило 2. Для того чтобы, при заданном уровне зна- значимости а, проверить нулевую гипотезу о равенстве неиз- неизвестной генеральной дисперсии а2 нормальной совокуп- совокупности гипотетическому значению о02, при конкурирующей гипотезе Н{1а2^а02, надо вычислить наблюдаемое зна- значение критерия х^бт = л— и по таблице найти ле- °о вую критическую точку ХкРA —. "\ и правую ЕСЛИ Хлев, кр <Хнабл. <Хпрая вергнуть нулевую гипотезу. 1ф — Нет ОСНОВЭНИЙ ОТ- 299
Если xlrt* <zLB. kP, или х?ивл >Хп^ав. кр , —нулевую гипотезу отвергают. Пример 2. Из нормальной генеральной совокупности извлечена выборка объема п=13 и по ней найдена исправ- исправленная выборочная дисперсия sz=10,3. Требуется, при уровне значимости 0,02, проверить нулевую гипотезу Но: <tz=<tu*=12, приняв в качестве конкурирующей гипо- гипотезы Н1:алф12. Решение. Найдем наблюденное значение критерия •набл _ (га — 1) g» _ A3-1). 10,3 Так как конкурирующая гипотеза имеет вид <jV=12, то критическая область — двусторонняя. По таблице (приложение 5) находим критические точ- 4(i )?(^L ки: „ую _ 12) = Х^@,99; 12) = 3,57 и правую-^р (-у. 12) = 26,2. Так как наблюденное значение критерия принадлежит области принятия гипотезы C,57<10,3<26,2) — нет ос- оснований ее отвергнуть. Другими словами, исправленная выборочная дисперсия A0,3) незначимо отличается от ги- гипотетической генеральной дисперсии A2). С л у ч а й 3. Конкурирующая гипотеза Hi: а2<а02. Правило 3. При конкурирующей гипотезе fft: агг<а09. находят критическую точку ^кр A—о, к). Если Хиабл>Хкр('—о,, к) — нет основании отвергнуть нулевую гипотезу. Если Хнабл<ХкрA—а, к)— нулевую гипотезу отвергают. Замечание. В случае, если найдена выборочная диспер» сня ?>в , в качестве критерия принимают случайную величину X1 =—f"i которая имеет распределение х1 с k**n — I степенями свободы, либо переходят к «г < 300 л — 1 § 10. Сравнение двух средних нормальных генеральных совокупностей, дисперсии которых известны (независимые выборки) Пусть генеральные совокупности X и К распределены нормально, причем их дисперсии известны (например, из предшествующего опыта, или иайдеиы теоретически). По независимым выборкам объемов пит, извлеченным из этих совокупностей, найдены выборочные средние х и ~у. Требуется по выборочным средним, при заданном уров- уровне значимости а, проверить нулевую гипотезу, состоящую в том, что генеральные средние (математические ожида- ожидания) рассматриваемых совокупностей равны между собой Wo: M(X)=M(Y). Учитывая, что выборочные средние являются несме- несмещенными оценками генеральных средних (гл. XV, § 5), т. е. М(Х)=М(Х) и M(Y)=M(Y), нулевую гипотезу мож- можно записать так: _ Нй: M(X)=M(Y). Таким образом, требуется проверить, что математичес- математические ожидания выборочных средних равны между собой. Такая задача ставится потому, что, как правило, выбороч- выборочные средние оказываются различными. Возникает вопрос: значимо, или незначимо различаются выборочные средние? Если окажется, что нулевая гипотеза справедлива, т. е. генеральные средние одинаковы, то различие выбороч- выборочных средних незначимо и объясняется случайными причи- причинами и, в частности, случайным отбором объектов выборки. Например, если физические величины А и В имеют одинаковые истинные размеры, а средние арифметические хну результатов измерений этих величин различны, го это различие незначимое. Если нулевая гипотеза будет отвергнута, т. е. генераль- генеральные средние не одинаковы, ю различие выборочных сред- средних значимо и не может быть объяснено случайными причи- причинами, а объясняется тем, что сами генеральные средине (математические ожидания) различны. Например, если среднее арифметическое х результатов измерений физичес- физической величины А значимо отличается от среднего арифмети- арифметического у результатов измерений физической величины В, 301
то это означает, что истинные размеры (математические ожидания) этих величин — различны. В качестве критерия проверки нулевой гипотезы при- примем случайную величину X-Y т Эта величина случайная, потому что в различных опытах х и у принимают различные, наперед неизвестные значения. Пояснение. По определению среднего квадрати- ческого отклонения afX—Y)—y D(X—Y). На основании свойства 4 (гл. VI11, § 5) D(X—F)= =D(X)+D(Y). _ По формуле (*) (гл. VIII, § 9): D{X)=^. D(Y). Следовательно, Критерий Z — нормированная нормальная случайная величина. Действительно, величина Z распределена нор- нормально, так как является линейной комбнггацией нормаль- нормально распределенных величин X и У; сами эти величины рас- распределены нормально как выборочные средние, найденные по выборкам, извлеченным из нормальных генеральных совокупностей; Z — нормированная величина потому, что A1(Z)=O, при справедливости нулевой гипотезы, <j(Z)=1, поскольку выборки независимы. Критическая область строится в зависимости от вида конкурирующей гипотезы. Первый случай. Пулевая гипотеза Нй:М{Х)= =M(Y). Конкурирующая гипотеза //, : М(Х)ФМ{У). В этом случае строят двустороннюю критическую об- область, исходя из требования, чтобы вероятность попадания критерия в эту область, в предположении справедливости нулевой гипотезы, была равна принятому уровню значи- значимости а- Наибольшая мощность критерия (вероятность попа- попадания критерия в критическую область, при справедли- справедливости конкурирующей гипотезы) достигается тогда, когда «левая» и «правая» критические точки выбраны так, что 302 вероятность попадания критерия в каждый из двух интер- интервалов критической области, равна |-: зев. кр) = — t y*j • № !> гпр»в. кр)= ~т~ • Поскольку Z нормированная нормальная величина, а распределение такой величины симметрично относитель- относительно нуля,— критические точки симметричны относительно нуля. Таким образом, если обозначить правую границу дву- Рнс. 25. сторонней критической области через гкр, то левая граница равна — гкр (рис. 25). Итак, достаточно найти правую границу, чтобы иайти саму двустороннюю критическую область и область принятия нулевой гипотезы Покажем как иайти гкр — правую границу двусторои- ней критической области, пользуясь функцией Лап- Лапласа <D(Z). Известно, что функция Лапласа определяет вероятность попадания нормированной нормальной слу- случайной величины, например Z, в интервал @, г): P((XZ<z)=G)(Z). (**) Так как распределение Z симметрично относительно нуля, то вероятность попадания Z в интервал @, оо) рав- равна -j. Следовательно, если разбить этот интервал точкой гкр, на интервалы @, гкр) н (zKp, оо), то по теореме сло- сложения P((XZ<zKp)+P(Z>zKp)=-i. (***) 303
В силу (*) и (**) получим Следовательно, ]— а Отсюда заключаем: для того чтобы найти правую гра- границу двусторонней критической области (zKp) доста- достаточно найти значение аргумента функции Лапласа, которому соответствует значение функции, равное —^ . Тогда двусторонняя критическая область определяется неравенствами или равносильным неравенством а область принятия нулевой гипотезы неравенством -zKp<Z<zKp, или равносильным неравенством Обозначим значение критерия, вычисленное по данным наблюдений, через 2набл и сформулируем правило провер- проверки нулевой гипотезы. Правило I. Для того чтобы при заданном уровне зна- значимости а проверить нулевую гипотезу Но: М(Х)=М(У) о равенстве математических ожиданий двух нормальных генеральных совокупностей с известными дисперсиями, при конкурирующей гипотезе Ht: М(Х)ФМ(У), надо вы- вычислить _ наблюденное значение критерия ZHa6jl = х~у и по таблице функции Лапласа найти | / У D{X) D(Y) П + т 1-я критическую точку по равенству Ф (гкр) Если \Zlia6j,\ < гкр — нет оснований отвергнуть нуле- нулевую гипотезу. Если |ZHa&i| > ZkP — нулевую гипотезу отвергают. 304 Пример I. По двум независимым выборкам объемов «=60 и т=50, извлеченным из нормальных генеральных совокупностей, найдены выборочные средние х=1250 и у—1275. Генеральные дисперсии известны: D(X)=120, О(У)= 100. При уровне значимости 0,01, проверить нуле- нулевую гипотезу Но: М(X)=M(Y), при конкурирующей ги- гипотезе Н, : М{Х)фМ(У). Решение. Найдем наблюдаемое значение критерия 'иабл ' х — У 1250 — 1275 Р (X) D(Y) l/ 120 100 п + т '6050 - 12,5. О гяр Рио. 26. - I По условию конкурирующая гипотеза имеет вид M(X)=f= ФМ(У), поэтому критическая область — двусторонняя Найдем правую критическую точку по равенству = 0,495. По таблице функции Лапласа (приложение 2) находим 2кр = 2.58. Так как |ZraCfl| > гкр — нулевую гипотезу отвергаем. Другими словами, выборочные средние различаются зна- значимо. Второй случай. Нулевая гипотеза Но: М(Х)= =М(К)- Конкурирующая гипотеза Ht : М(Х)>М(К)- На практике такой случай имеет место, если профессио- профессиональные соображения позволяют предположить, что гене- генеральная средняя одной совокупности больше генеральной средней другой. Например, если введено усовершенство- усовершенствование технологического процесса, то естественно допус- допустить, что оно приведет к увеличению выпуска продукции. В этом случае строят правостороннюю критическую область, исходя из требования, чтобы вероятность попа- попадания критерия в эту область, в предположении справед- 11—43 305
ливости нулевой гипотезы, была равна принятому уровню значимости (рис. 26): P(Z>zKp)=a (****) Покажем как иайти критическую точку при помощи функции Лапласа. Воспользуемся соотношением (***): P@<Z<zKp)+P(Z>zKp)=-i. В силу (**) и (****) имеем Следовательно, Отсюда заключаем, для того чтобы иайти границу пра- правосторонней критической области (zKp), достаточно найти значение аргумента функции Лапласа, которому соот- ветствует значение функции, равное —^— . Тогда право- правосторонняя критическая область определяется неравенст- неравенством Z>zKpt а область принятия нулевой гипотезы — не- раЕенством Z<LzKp. Правило 2. Для того чтобы, при заданном уровне зна- значимости а, проверить нулевую гипотезу H0:M(X)=M(Y) о равенстве математических ожиданий двух нормальных генеральных совокупностей с известными дисперсиями, при конкурирующей гипотезе Ht: M(X)>M(Y). надо вы- вычислить наблюденное значение критерия Z,a6x = и по таблице функции Лапласа найти V-- D{X) D{Y) 1—2* критическую точку из равенства Ф (zKp) = Если ZHa6jI <гкр— иет оснований отвергнуть нулевую гипотезу. Если 2„авл>гкр — нулевую гипотезу отвергают. Пример 2. По двум независимым выборкам объемов п=10 и т=10, извлеченным из нормальных генеральных совокупностей, найдены выборочные средние х—14,3 и # = 12,2. Генеральные дисперсии известны: D(X) = 22, 306 D(V)=18. При уровне значимости 0,05, проверить нулевую гипотезу Но: M(X)—M{Y), при конкурирующей гипотезе г/, : M(X)>M(Y). Решение. Найдем наблюдаемое значение кри- критерия „ 14,3—12,2 1/22 18 1,05. По условию конкурирующая гипотеза имеет вид М(Х)> (У), поэтому критическая область — правосторонняя. По таблице функции Лапласа находим гкр =1,64. О Рнс. 27. Так как Z^j, < 2кР — иет оснований отвергнуть нуле- нулевую гипотезу. Другими словами, выборочные средние различаются незначимо. Третий случай. Нулевая гипотеза Нй'• М(Х) = =M(Y). Конкурирующая гипотеза Ht: M(X)<M(Y). В этом случае строят.левостороннюю критическую об- область, исходя из требования, чтобы вероятность попадания критерия в эту область, в предположении справедливости нулевой гипотезы, была равна принятому уровню значи- значимости (рис. 27): P{Z< гкр) = а. Приняв во внимание, что критерий Z распределен сим- симметрично относительно нуля, заключаем, что искомая критическая точка г'к9 симмегрична такой точке г^ > 0, для которой P(Z>?Kp)=a, т. е. г'кр = — zKp. Таким образом, для того, чтобы иайти точку г'кр, достаточно сначала найти «вспомогательную точку» zKp так, как описано во вто- втором случае, а затем взять найденное значение со знаком минус. Тогда левосторонняя критическая область определяется неравенством Z<—zKp, а область принятия пулевой гипотезы неравенством Z>—zKp. II* 307
Правило 3. При конкурирующей гипотезе Ht:. <M(Y) надо вычислить Z,a(>n и сначала по таблице функции Лапласа иайтн «вспомогательную точку» гкр по равен- равенству Ф(гкр) = —5—. а затем положить г^,= —гкр. Если ZHabl>—гкр — нет оснований отвергнуть нуле- нулевую гипотезу. Если гга6л<—гКр—нулевую гипотезу отвергают. Пример 3. По двум независимым выборкам объемов п=50 и т=50, извлеченным из нормальных генеральных совокупностей, найдены выборочные средине х=142 н п=150. Генеральные дисперсии известны: D(X)=28,2, Ь(У)=22,8. При уровне значимости 0,01, проверить нуле- нулевую гипотезу H0:M(X)=M(Y), при конкурирующей ги- гипотезе Н,:ЩХХМ(У). Решение. Подставив данные задачи в формулу для вычисления наблюдаемого значения критерия, получим По условию конкурирующая гипотеза имеет внд М(Х)< <М(У), поэтому критическая область — левосторонняя Найдем «вспомогательную точку» %р по равенству Ofe>)-Ll», '-220-0'=0,49. По таблице функции Лапласа находим гкр =2,33. Сле- Следовательно, г'кр=—гкр = —2,33. Так как Ziib6ji<—гкр — нулевую гипотезу отвергаем. Другими словами, выборочная средняя "х значимо меньше выборочной средней у. § 11. Сравнение двух средних произвольно распределенных генеральных совокупностей (большие независимые выборки) В предыдущем параграфе предполагалось, что гене- генеральные совокупности X и Y распределены нормально, а нх дисперсии известны. При этих предположениях, в случае справедливости нулевой гипотезы о равенстве сред- средних и независимых выборках, критерий Z распределен точно нормально с параметрами Он 1. Если хотя бы одно из приведенных требований не вы- выполняется, метод сравнения средних, описанный в § 10, неприменим. 303 Однако, если независимые выборки имеют большой объем (не менее 30 каждая), то выборочные средние рас- распределены приближенно нормально, а выборочные дис- дисперсии являются достаточно хорошими оценками генераль- генеральных дисперсий и в этом смысле их можно считать извест- известными приближенно. В итоге критерий Z' Ъ-7 распределен приближенно нормально о параметрами M(Z)—0 (при условии справедливости нулевой гипотезы) и a(Z') — \ (если выборки независимы). Итак, если: 1) генеральные совокупности распреде- распределены нормально, а дисперсии их неизвестны; 2) генераль- генеральные совокупности не распределены нормально, а диспер- дисперсии их известны; 3) генеральные совокупности не распре- распределены нормально и дисперсии их неизвестны, причем выборки имеют большой объем и независимы,— можно сравнивать средние так, как описано в § 10, заменив точ- точный критерий Z приближенным критерием Z'. В этом слу- случае наблюдаемое значение приближенного критерия та- таково: . х — у Замечание. Поскольку рассматриваемый критерий — приближенный, к выводам, полученным по этому критерию, следу- следует относиться осторожно. Пример. По двум независимым выборкам объемов п=»100 и т=120, найдены выборочные средние х=32,4, {/=30,1 и выборочные дисперсии DB(X)=l5,0, DB(Y) = =25,2. При уровне значимости 0,05, проверить нулевую гипотезу tf0: M(X)=M(Y), при конкурирующей гипоте- гипотезе W,: М(Х)ФМ{У). Решение. Подставив данные задачи в формулу для вычисления наблюдаемого значения приближенного кри- критерия, ПОЛучНМ 2^абл=3,83 309
По условию конкурирующая гипотеза имеет вид М{Х)> >М(У), поэтому критическая область — правосторонняя. Найдем критическую точку по равенству = 0,45. По таблице функции Лапласа находим гкр=1,64. Так как Zna^ >гкр — нулевую гипотезу отвергаем. Другими словами, выборочные средние различаются зна- значимо. § 12. Сравнение двух средних нормальных генеральных совокупностей, дисперсии которых неизвестны и одинаковы (малые независимые выборки) Пусть генеральные совокупности X и У распределены нормально, причем их дисперсии неизвестны. Например, по выборкам малого объема нслыя получить хорошие оценки генеральных дисперсий. По этой причине метод сравнения средних, изложенный в § II. применить нельзя. Однако, если дополнительно предположить, что неиз- неизвестные генеральные дисперсии рав- равны между собой, то можно построить критерий (Стьюдента) сравнения средних. Например, если сравни- сравниваются средние размеры двух партий деталей, изготовлен- изготовленных на одном и том же станке, то естественно допустить, что дисперсии контролируемых размеров одинаковы. Если же нет оснований считать дисперсии одинаковы- одинаковыми, то прежде чем сравнивать средние, следует, пользуясь критерием Фишера —Снедекора (§ 8), предварительно проверить гипотезу о равенстве генераль- генеральных дисперсий. Итак, в предположении, что генеральные дисперсии одинаковы, требуется проверить нулевую гипотезу Нй:M(X)=M(Y). Другими словами, требуется установить значимо, или незначимо, различаются выборочные сред- средние хну, найденные по независимым малым выборкам объемов пат. В качестве критерия проверки нулевой гипотезы примем случайную величину Т = X — Y (n-OS* (ю-1) 6* 1/ tun (n -f то — 2) V п + m 310 Доказано, что величина ?\ при справедливости пулевой гипотезы, имеет «-распределение Стьюдента с k—rt+m—2 степенями свободы. Критическая область строится в зависимости от вида конкурирующей гипотезы. Первый случай Нулевая гипотеза Но:М{Х)= =M(Y). Конкурирующая гипотеза Н,: М(Х)фМ(У). В этом случае строят двустороннюю критическую об- область, исходя из требования, чтобы вероятность попада- попадания критерия Т в эту область, в предположении справед- справедливости нулевой гипотезы, была равна принятому уровню значимости а. Наибольшая мощность критерия (вероятность попа- попадания критерия в критическую область, при справедли- справедливости конкурирующей гипотезы) достигается тогда, когда «левая» и «правая» критические точки выбраны так, что вероятность попадания критерия в каждый из двух интер- интервалов двусторонней критической области равна -Ц- •, Поскольку величина Т имеет распределение Стьюдеита, а оно симметрично относительно нуля, то и критические точки симметричны относительно нуля Таким образом, если обозначить правую границу двусторонней критичес- критической области через <дву„. жр(а, fc), то левая граница равна, —'двуст. кР (а> k) Итак, достаточно найти правую границу двусторонней критической области, чтобы найти саму дву- двустороннюю критическую область, Т < — <двуст. кр (а. k), Т>/Двуст. кр(я. k) <двуст. кр (а. и область принятия нулевой гипотезы [— *двуст. кр (ч, k), <двуст. кр (a. k)]. Обозначим значение критерия, вычисленное по данным наблюдений, через 7*н„бл и сформулируем правило про- проверки нулевой гипотезы. Правило I. Для того чтобы при заданном уровне значимости а проверить нулевую гипотезу Н0:М[Х)= =М(У) о равенстве математических ожиданий двух нор- нормальных совокупностей с неизвестными, но одинаковыми дисперсиями (в случае независимых малых выборок), при 311
конкурирующей гипотезе Ht: М(Х)фМ{У), надо вычислить наблюдаемое значение критерия 1 набл - *—у \Г и по таблице критических точек распределения Стьюдеита, по заданному уровню значимости а (помещенному в верх- верхней строке таблицы) и числу степеней свободы k=n ?tn—2, найти критическую точку <двугТ. кр (a. k) Если |Г„абЛ| < /двуст. кр (а к) — отвергнуть нулевую гипотезу — нет оснований. Если |Г„авл| > 'двуст. кр (a. k) — нулевую гипотезу от- отвергают. Пример. По двум независимым малым выборкам объе- объемов п=Ъ и т=6, извлеченным из нормальных генеральных совокупностей X и Y, найдены выборочные средние х= =3,3, ]/=2,48 и исправленные дисперсии s|=0,25 и Sy= =0,108. При уровне значимости 0,05, проверить нулевую гипотезу Wo: M{X)=M(Y), при конкурирующей гипоте- гипотезе НГ.М(Х)фМ(У). Решение. Так как выборочные дисперсии различ- различны, проверим предварительно нулевую гипотезу о равен- равенстве генеральных дисперсий, пользуясь критерием Фи- Фишера — Снедекора (§ 8). Найдем отношение большей исправленной дисперсии к меньшей: гнабл ' 0,25 0.108 2,31 Дисперсия si значительно больше дисперсии sy, поэ- поэтому в качестве конкурирующей примем гипотезу Н, :D(X)>D{Y). В этом случае критическая область — правосторонняя. По таблице, по уровню значимости а = 0,05 и числам степеней свободы ft, = 5—1=4, *2=6—1=5. находим критическую точку FKp @,05; 4; 5)=5,19. Так как /7иввл<^?кр — нет оснований отвергнуть нуле вую гипотезу о равенстве генеральных дисперсий. Поскольку предположение о равенстве генеральных дис- дисперсий выполняется, сравним средние 312 Вычислим наблюдаемое значение критерия Стьюдеита: т _ ~ — ~ \fnm (n + m — 2) V nsy + я Подставив числовые значения величин, входящих в эту формулу, получим- ТтйЛ = 3,27. По условию конкурирующая гипотеза имеет видМ(Х)^= ФМ(У), поэтому критическая область — двусторонняя. По уровню значимости 0,05 и числу степеней свободы k= =5+6—2=9, находим по таблице (приложение 6) крити- критическую точку Гдвуст. кР @.05; 9)=2,26 Так как Т„мл ><Двуо. кр — нулевую гипотезу о равен- равенстве генеральных средних отвергаем Другими словами выборочные средние различаются значимо. , Второй случай Нулевая гипотеза Нй: М(Х) = =M{Y). Конкурирующая гипотеза Ht: M{X)~>M(Y). В этом случае строят правостороннюю критическую область, исходя из требования, чтобы вероятность попа- попадания критерия Т в эту область, в предположении справед- справедливости нулевой гипотезы, была равна принятому уровню значимости: кР)=а Критическую точку tapaBOCT. Kp (a, k) находят по таб- таблице (приложение 6) по уровню значимости а. помещен- помещенному в нижней строке таблицы и по числу степеней сво- свободы fe=n-f-m—2. Если Г„абл< <правост. кр —нет оснований отвергнуть нулевую гипотезу. Если Г11абл > 'правоот кр — нулевую гипотезу отвергают. Третий случай Нулевая гипотеза Ио'¦ М(Х)= =M{Y) Конкурирующая гипотеза AY,: M(X)<.M(Y) В этом случае строят левостороннюю критическую об ласть, исходя из требования, чтобы вероятность попадания критерия в эту область, в предположении справедливости нулевой гипотезы была равна принятому уровню значи- значимость: Р(Т<У'леклет. кр) = О В силу симметрии распределения Стьюдеита относитель- относительно нуля 'левост. кр =—fправо», кр Поэтому сначала находят «вспомогательную» критическую 313
ТОЧКу Гправост. кр ТЭК, КЭК ОПИСЭИО ВО ВТОрОМ С Л у- ч а е и полагают глевост. «Р' ЕСЛИ /|и6л>—^правост. кр" иет оснований. ЕСЛИ Т"иабл<^п|)авост. кр гают. —'правост. кр- отвергнуть нулевую гипотезу, = — нулевую гипотезу отвер- § 13. Сравнение выборочной средней и гипотетической генеральной средней нормальной совокупности А. Дисперсия генеральной совокупности известна. Пусть генеральная совокупность X распределена нормально, причем генеральная средняя а, хотя и неизвестна, но име- имеются основания предполагать, что она равна гипотетичес- гипотетическому (предполагаемому) значению а0. Например, если X — совокупность размеров х, партии деталей, изготовляемых станком-автоматом, то можно предположить, что генераль- генеральная средняя а этих размеров равна проектному размеру а,,. Чтобы проверить это предположение, находят выборочную среднюю х и устанавливают значимо, или незначимо, раз- различаются х и Oq. Если различие окажется незначимым, то станок обеспечивает в среднем проектный размер; если различие значимое, то станок требует подиаладки. Предположим, что дисперсия генеральной совокупнос- совокупности известна, например, из предшествующего опыта, или найдена теоретически, или вычислена по выборке большого объема (по большой выборке можно получить достаточно хорошую оценку дисперсии). Итак, пусть из нормальной генеральной совокупности извлечена_выборка объема п и по ней найдена выборочная средняя х, причем генеральная дисперсия а' известна Требуется по выборочной средней, при заданном уровне значимости, проверить нулевую гипотезу Но: а—по о равенстве генеральной средней а гипотетическому значе- значению а0. Учитывая, что выборочная средняя является несметен ной оценкой генеральной средней (гл XVI, § ?>), те М(Х)=а, нулевую гипотезу можно записать так : М(Х)=а0 Таким образом, требуется проверить, что математичес- математическое ожидание выборочной средней равно гипотетической генеральной средней Другими словами, надо установить значимо, или незначимо, различаются выборочная и ге- генеральная средние. 314 В качестве критерия проверки нулевой гипотезы примем случайную величину U = которая распределена нормально, причем, при справедли- справедливости нулевой гипотезы, M(U)=0, a(U)=l. Поскольку здесь критическая область строится в за- зависимости от вида конкурирующей гипотезы так же, как в § 10, ограничимся формулировкой правил проверки ну- нулевой гипотезы, обозначив значение критерия О, вычислен- вычисленное по данным наблюдений через 1/„абл- Правило I. Для того чтобы, при заданном уровне зна- значимости проверить нулевую гипотезу Но: а—а0 о равенстве генеральной средней а нормальной совокупности с из- известной дисперсией о2 гипотетическому значению а0, при конкурирующей гипотезе Н1: афа0, надо вычислить на- наблюдаемое значение критерия U _А*-°«)У« набл о и по таблице функции Лапласа иайти критическую точку двусторонней критической области по равенству «Пикр) = -^-. Если \итбя\< "кр — иет оснований отвергнуть ну- нулевую гипотезу. Если |l/lla6.,| > иКр— нулевую гипотезу отвергают. Правило 2. При конкурирующей гипотезе /У, : а'>а0, критическую точку правосторонней критической области находят но равенству Если 1Лабл<Ыкр—иет оснований отвергнуть нулевую гипотезу. Если 1/Набл>Икр— нулевую гипотезу отвергают. Правило 3. При конкурирующей гипотезе Н{: а<а0 сначала находят критическую точку ыкр по правилу 2, а затем полагают границу левосторонней кршической области Икр = — U кр 315
Если иилб„ > — «кр — иет оснований отвергнуть нуле- нулевую гипотезу. Если t/иабл <—«кр — нулевую гипотезу отвергают Пример I. Из нормальной генеральной совокупности с известным средним квадратическим отклонением о=0,36 извлечена выборка объема я=36 и по ней найдена выбороч ная средняя *=21,6. Требуется, при уровне значимости 0,05, проверить нулевую гипотезу Н0:а=Оо=21, при кон- конкурирующей гипотезе Н{: аф2\ Решение. Найдем наблюдаемое значение критерия и, набл : = B1,6-21)^36 |n 0.36 = По условию конкурирующая гипотеза имеет вид поэтому критическая область — двусторонняя Найдем критическую точку по равенству = 0,475 По таблице функции Лапласа находим икр=1,96. Так как 1/навл>«кР — нулевую гипотезу отвергаем. Другими словами, выборочная и гипотетическая генераль- генеральная средние различаются значимо. Пример 2. По данным примера I проверить нулевую гипотезу Н0:а=21, при конкурирующей гипотезе а>21. Решение. Так как конкурирующая гипотеза имеет вид а>21, критическая область — правосторонняя Найдем критическую точку из равенства По таблице функции Лапласа находим и,<р=1,65. Так как 1/„,бл = 10 > икр, — нулевую гипотезу отвер- отвергаем; различие между выборочной и гипотетической гене ральиой средней — значимое. Заметим, что в примере 2 нулевую гипотезу можно было отвергнуть сразу, поскольку она была отвергнута в при мере I, при двусторонней критической области Мы при вели полное решение в учебных целях. Б. Дисперсия генеральной совокупности неизвестна. Если дисперсия генеральной совокупности неизвестна (например, в случае малых выборок), то в качестве Крите- 316 рия проверки нулевой гипотезы принимают случайную величину т_(Х-ав)Уп где s — «исправленное» среднее квадратическое отклоне- отклонение. Величина Т имеет распределение Стьюдента с k=n—1 степенями свободы. Критическая область строится в зависимости от вида конкурирующей гипотезы Поскольку это делается так, как опнсано выше, ограничимся правилами проверки нуле- нулевой гипотезы. Правило I. Для того чтобы, при заданном уровне зна- значимости а, проверить нулевую гипотезу Но: а=ай о ра- равенстве неизвестной генеральной средней а (нормальной совокупности с неизвестной дисперсией) гипотетическому значению ав, при конкурирующей гипотезе Н{: афа^ надо вычислить наблюдаемое значение критерия: _ (х — а„) У~п 1 набл "= ~ и по таблице критических точек распределения Стьюдента, по заданному уровню значимости а, помещенному в верх- верхней строке таблицы, и числу степеней свободы k=n— I, найти критическую точку 7дВуст. кР (а, к). Если [Гнабл| <'двуСТ. кр— нет оснований отвергнуть ну- нулевую гипотезу. Если |Гиавл| >/двусг. кр — нулевую гипотезу отвергают. Правило 2. При конкурирующей гипотезе Ht: а>а0, по уровню значимости а. помещенному в нижней строке таблицы (приложение 6), н числу степеней свободы k~ =п—1, находят критическую точку ^„рааост. кр (а, Ь) пра- правосторонней критической области. ЕСЛИ Тиабл «правост. кр — ИСТ ОСНОВЭНИЙ ОТВерГНуТЬ Ну- левую гипотезу. Если 7\юбл>{правост. кр — нулевую гипотезу отвергают. Правило 3. При конкурирующей гипотезе /У,: a<fh, сначала находят «вспомогательную» критическую точку 'иявост. кр (а, к) и полагают границу левосторонней крити- критической ОблаСТИ <..,еаост. кр =—'правост. кр- Если Т"„,к5л >—/щаалст. кр—нет оснований отвергнуть нулевую гипотезу. Если Г„аСл<—/щывост. кР— нулевую гипотезу отвергают. 317
Пример 3. По выборке объема п=20 извлеченной из нормальной генеральной совокупности, найдены выбороч- выборочная средняя д:= 16 и «исправленное» среднее квадратичес- кое отклонение s=4,5. Требуется при уровне значимости 0,05, проверить нулевую гипотезу Но: а=Оо= 15, при кон- конкурирующей гипотезе /Л : аф\Ъ. Решение. Вычислим наблюдаемое значение кри- критерия т (х- а0) 1Г~И A6- 15) * пабл = = Т~1 Т1 4,5 По условию конкурирующая гипотеза пмеет вид афа,,, поэтому критическая область — двусторонняя. По таблице критических точек распределения Стьюден- та по уровню значимости а=0,05, помещенному в верхней строке таблицы, и по числу степеней свободы fc=20—1 = 19, находим критическую точку /двуст. кр @,05; 19)=2,09. Так как |ТНДбл| <'двуст. кр — нет оснований, чтобы от- отвергнуть нулевую гипотезу, выборочная средняя незна- незначимо отличается от гипотетической генеральной средней. § 14. Связь между двусторонней критической областью и доверительным интервалом Легко показать, что отыскивая двустороннюю крити- критическую область прн уровне значимости а, тем самым нахо- находят и соответствующий доверительный интервал с надеж- надежностью y=1—а- Например, в § 13, проверяя нулевую гипотезу Но: а=ао, при Ht: афпо, мы_требовали, чтобы вероятность попадания критерия U= ~ в двусто- двустороннюю критическую область была равна уровню значи- значимости а, следовательно, вероятность попадания критерия в область принятия гипотезы (—Ыкр, ыкр) равна 1—а=у- Другими словами, с надежностью у выполняется нера- неравенство или равносильное неравенство а х — и кр _,_ ••кр _ . (*) гДе 318 Мы получили доверительный интервал для оценки ма- математического ожидания а нормального распределевия при известном а, с надежностью у (гл. XVI, § 15). Замечание. Хотя отыскание двусторонней критической области и доверительного интервала приводит к одинаковым ре- результатам, — их истолкование различно: двусторонняя критиче- критическая область определяет границы (критические точки), между ко- которыми заключено A—я)% числа наблюдаем их критериев, найден- найденных прн повторении опытов: доверительный же нптерпал опреде- определяет границы (концы интервала), между которыми в ]= (I—а)% опытов заключено истинное значение оцениваемого параметра. § 15. Определение минимального объема выборки при сравнении выборочной и гипотетической генеральной средних На практике часто известна величина (точность) 8>0, которую не должна превышать абсолютная величина раз- разности между выборочной и гипотетической генеральной средними. Например, обычно требуют, чтобы средний раз- размер изготовляемых деталей отличался от проектного ие более, чем на заданное В. Возникает вопрос: каким должен быть минимальный объем выборки, чтобы это требование с вероятностью у = = 1—а (а—уровень значимости) выполнялось? Поскольку задача отыскания доверительного интервала для оценки математического ожидания нормального рас- распределения при известном о и. задача отыскания двусто- двусторонней критической области для проверки гипотезы о ра- равенстве математического ожидания (генеральной средней) гипотетическому значению (§ 13, А) сводится одиа к дру- другой (§ 14), воспользуемся формулой (гл. XVI, § 15) где ыкр находят по равенству Ф (ыкр) — = - Если же а неизвестно, а найдена его оценка s, то б 13, Б) 319
§ 16. Пример на отыскание мощности критерия Приведем решение примера на нахождение мощности критерия. Пример. По выборке объема п=25, извлеченной из нормальной генеральной совокупности с известным сред- средним квадратическим отклонением а—10, найдена выбороч- выборочная средняя х=18. При уровне значимости 0,05 требуется: а) найти критическую область, если проверяется нуле- нулевая гипотеза Но: а=а0—20 о равенстве генеральной сред- средней гипотетическому значению, при конкурирующей ги- гипотезе Hi : a<20; б) найти мощность критерия проверки, при ао=16. Решение, а) Так как конкурирующая гипотеза имеет вид а<а0, критическая область — левосторонняя. Пользуясь правилом 3 (§ 13, А), найдем критическую точку: «кР=—1,65. Следовательно левосторонняя критичес- критическая область определяется неравенством С/<—1,65, или подробнее 10 Отсюда *<16,7. При этих значениях выборочной средней нулевая гипо- гипотеза отвергается; в этом смысле л:=16,7 можно рассматри- рассматривать как критическое значение выборочной средней. б) Для того чтобы вычислить мощность рассматривае- рассматриваемого критерия, предварительно найдем его значение, при условии справедливости конкурирующей гипотезы (т. е при ао=16), положив дг=16,7: V. (х - о0) \гп A6,7 - 16) |Л>5 10 0,35 Отскада видно, что если л:<16,7, то 1/<0,35 Поскольку при *<16,7 нулевая гипотеза отвергается, то и при 1/< <0,35 она также отвергается (при этом конкурирующая гипотеза справедлива, так как мы положили ао=16) Найдем теперь, пользуясь функцией Лапласа, мощность критерия, т. е. вероятность того, что нулевая гипотеза будет отвергнута, если справедлива конкурирующая ги- гипотеза (§ 7): 320 РA/<0,35)=Я(— oo<f/<0,35)=P(— + P({Xt/<0,35)=0,5+O@,35)=0,5+0,1368=0,6368. Итак, искомая мощность рассматриваемого критерия приближенно равна 0,64.' Если увеличить объем выборки, то мощность увеличится. Например, при п=64 мощность равна 0,71. Если уве- увеличить а, то мощность также увеличится. Например, при а=0,1 мощность равна 0,7642. Замечание. Зная мещпость, легко найти вероятность ошибки второго рода: р = 1—0,64. (.Разумеется, прн решении при- примера можно было сначала найти ji. а затем мощность, равную 1—р.) § 17. Сравнение двух средних нормальных генеральных совокупностей с неизвестными дисперсиями (зависимые выборки) В предыдущих параграфах выборки предполагались не- независимыми. Здесь рассматриваются выборки одинаково- одинакового объема, варианты которых попарно зависимы. Напри- мер, если x,(i — l, 2 п) результаты измерений деталей первым прибором, а у,— результаты измерений этих же деталей, произведенные в том же порядке вторым прибором, то х, и yt попарно зависимы, и в этом смысле сами выборки зависимые. Поскольку, как правило x~?ylt возникает необходимость установить, значимо или незначимо разли- различаются пары этих чисел. Аналогичная задача ставится при сравнении двух методов исследования, осуществленных одной лабора- лабораторией, или если исследование произведено одним и тем же методом двумя различными лабораториями. Итак, пусть генеральные совокупности X и Y распре- распределены нормально, причем их дисперсии неизвестны. Тре- Требуется, при уровне значимости а, проверить нулевую ги- гипотезу г/0: М(Х)=М(У) о равенстве генеральных средних нормальных совокупностей с неизвестными дисперсиями, при конкурирующей гипотезе Ht: М{Х)фМ(У), по двум зависимым выборкам одинакового объема. Сведем эту задачу сравнения двух средних к задаче сравнения одной выборочной средней с гипотетическим значением генеральной средней, решенной в § 13, Б. 32)
С этой целью введем в рассмотрение случайные вели- величины — разности Dj=X,—Yt и их среднюю: Х-У. n n n n Если нулевая гипотеза справедлива, т. е. M(X)=M{Y), то М(Х)—М(К)=0 и. следовательно, M(D)=M(X—Y)^M(R)—M{Y)=Q. Таким образом, нулевую гипотезу Н» : M(X)=M{Y) можно записать так: Но : M(D)=0. Тогда конкурирующая гипотеза примет вид: Замечание 1. Далее наблюдаемые неслучайные разности xl—У1 будем обозначать через dt, в отличие oi случайных разностей Df = X;—Yi Аналогично выборочную среднюю этих разностей ±d-i обозначим через d, в отличие от случайной величины D п Итак, задача сравнения двух средних хну сведена к задаче сравнения одной выборочной средней d с гипотети- гипотетическим значением генеральной средней M(D)=ao=0. Эта задача решена ранее в § 13, Б, поэтому приведем лишь правило проверки нулевой гипотезы и иллюстрирующий пример. Замечание 2 формуле (§ 13. Б) Как следует из изложенного выше, в I пабл : надо положить .о. Тогда Гнабл = р Правило. Для того чтобы, при заданном уровне значи- значимости а проверить нулевую гипотезу Но: M(X)=M(Y) о равенстве двух средних нормальных совокупностей с 322 неизвестными дисперсиями (в случае зависимых выборок одинакового объема), при конкурирующей гипотезе М(Х)Ф ФМ{7) надо вычислить наблюдаемое значение критерия и по таблице критических точек распределения Стьюдента, по заданному уровню значимости а, помещенному в верх- верхней строке таблицы, и по числу степеней свободы k—n—1, найти критическую точку iaByCT.Kp (a. *)¦ Если | Г11авя | <*ДВуст.кр — нет оснований отвергнуть ну- нулевую гипотезу. Если | Г1иЛл| ><двуст.кР— нулевую гипотезу отвергают. Пример. Двумя приборами измерены 5 деталей и полу- получены следующие результаты (в сотых долях мм): *1=6, х2=7, ха=8, *4=5, хь=7; 01=7, №=6, й=8, 4/4=7, уь=8. При уровне значимости 0,05 установить, значимо или не- зиачимо различаются результаты измерений. Решение. Вычитая из чисел первой строки числа второй, получим <*!=—1. 4=1. 4=0, d4=—2, dB=—1. Найдем выборочную среднюю: Учитывая, что 2^2= 1 + 1+4+1=7 и 2d,=—3. найдем «исправленное» среднее квадратическое откло- отклонение: п—\ Г 5—1 Вычислим наблюдаемое значение критерия 0,6 \г% 1Л.З . V 1.3 = — 1,18 По таблице критических точек распределения Стыодеита, по уровню значимости 0,05, помещенному в верхней строке таблицы, и числу степеней свободы к—5—1=4, находим критическую точку <ДВуст.кр @,05; 4)=2,78. 323
Так как | Гнабл| </двуст.кР — иет оснований отвергнуть нулевую гипотезу. Другими словами, результаты измере- измерений различаются незначимо. § 18. Сравнение наблюдаемой относительной частоты с гипотетической вероятностью появления события Пусть по достаточно большому числу п независимых испытаний, в каждом из которых вероятность р появления события постоянна, ио неизвестна, найдена относительная частота —. Пусть имеются основания предполагать, что неизвестная вероятность равна гипотетическому значе- значению р0. Требуется, при заданном уровне значимости а, проверить нулевую гипотезу, состоящую в том, что неиз- неизвестная вероятность р равна гипотетической вероятности Рс. Поскольку вероятность оценивается по относительной частоте, рассматриваемую задачу можно сформулировать и так: требуется установить значимо или незначимо раз- различаются наблюдаемая относительная частота и гипотети- гипотетическая вероятность. В качестве критерия проверки нулевой гипотезы примем случайную величину Г U = VPoQo где <7„=1—р0. Величина U, при справедливости нулевой гипотезы, рас- распределена приближенно нормально с параметрами M(U)= =0, о({/)=1. Пояснение. Доказано (теорема Лапласа), что при до- достаточно больших значениях п относительная частота имеет приближенно нормальное распределение с математическим ожиданием р и средним квадратическим отклонением Нормируя относительную частоту (вычтя математическое ожидание и разделив на среднее квадратическое отклоне- отклонение) получим М U п м причем M(U)=0, сг(?/)=1. 324 При справедливости нулевой гипотезы, т. е. при р=Ро 11 = Замечание 1. Далее наблюдаемая частота обозначается m M через — в отличие от случайной величины — Поскольку здесь критическая область строится так же, как и в § 10, приведем лишь правила проверки нулевой гипотезы и иллюстрирующий пример. Правило I. Для того чтобы, при заданном уровне значимости, проверить нулевую гипотезу Но : р=ро о равенстве неизвестной вероятности гипотетической вероят- вероятности, при конкурирующей гипотезе Ht: рфрц, надо вы- вычислить наблюденное значение критерия и по таблице функции Лапласа найти критическую точку по равенству Ф (икр) = ¦ ~— . Если | С/тел | <С"кр— нет оснований отвергнуть нуле- нулевую гипотезу. Если | 1/набл I >"«р — нулевую гипотезу отвергают. Правило 2. При конкурирующей гипотезе Ht: p>p0, находят критическую точку правосторонней критической области из равенства Ф(ЫкР) = —"Т~""¦ Если (/наел < «кр — нет оснований отвергнуть нуле* вую гипотезу. Если (У1Ибл >"кр — нулевую гипотезу отвергают. Правило 3. При конкурирующей гипотезе Ht : p<Po. находят критическую точку ынр по правилу 2, а затем полагают границу левосторонней критической области "ир = — "кр ¦ Если (/„абл > —Икр — иет оснований отвергнуть нуле- нулевую гипотезу. Если (/набл < —Икр — нулевую гипотезу отвергают. 325
Замечание 2. Удовлетворительные результаты обеспе чнвпст выполнение неравенства пр„д„ > 9. Пример. По 100 независимым выборкам найдена отно- относительная частота 0.08. Прн уровне значимости 0,05, проверить нулевую гипотезу Но: /э=/90=0,12, при конку- конкурирующей гипотезе Н, : р^О, 12. Решение. Найдем наблюдаемое значение критерия _ @,08 — 0,12) V 0.12 - 0.88 - 1,23. По условию конкурирующая гипотеза имеет вид Рфр0, поэтому критическая область — двусторонняя. Найдем критическую точку из равенства /rw v |_„ I —-?.05 2 • 0.475. По таблице функции Лапласа находим ыкр = 1,96. Так как | ?/,мСл|<икр— нет оснований отвергнуть ну- нулевую гипотезу. Другими словами, наблюдаемая относи- относительная частота незначимо отличается от гипотетической вероятности. § 19. Сравнение нескольких дисперсий нормальных генеральных совокупностей по выборкам различного объема. Критерий Бартлета Пусть генеральные совокупности Xt, X2 X, рас- распределены нормально. Из этих совокупностей извлечены независимые выборки, вообще говоря, различных объемов Л|, п2, ... п, (некоторые объемы могут быть одинаковыми; если все выборки имеют одинаковый объем, то предпочти- предпочтительнее пользоваться критерием Кочрена, который описан в следующем параграфе). По выборкам найдены исправлен- исправленные выборочные дисперсии s,s, Sz2, .... s,a. Требуется по исправленным выборочным дисперсиям, при заданном уровне значимости а, проверить нулевую гипотезу, состоящую в том, что генеральные дисперсии рассматриваемых совокупностей равны между собой: Другими словами, требуется установить, значимо или незначимо различаются исправленные выборочные дис- дисперсии. Рассматриваемую здесь гипотезу о равенстве нескольких дисперсий называют гипотезой об однородности дисперсий. Заметим, что числом степеней свободы дисперсии s? называют число ?г=Л;—1, т. е. число на единицу меньшее объема выборки, по которой вычислена дисперсия. Обозначим через s2— среднюю арифметическую ис- исправленных дисперсий, взвешенную по числам степеней свободы: где k = 2! fr«- i=i В качестве критерия проверки нулевой гипотезы об од- однородности дисперсий примем критерий Бартлета — слу- случайную величину где V = 2.303 к С=\ 3(/-l Бартлет установил, что случайная величина В, при ус- условии справедливости нулевой гипотезы, распределена приближенно как х2 с /— I степенями свободы, если все fcj>2. Учитывая что ki=nt—I, заключаем, что п{—1>2, нли п(>3, т. е. объем каждой из выборок должен быть не меньше 4. Критическую область строят правостороннюю, исходя из требования, чтобы вероятность попадания критерия в эту область, в предположении справедливости н>левой гипотезы, была равна принятому уровню значимости;
Критическую точку jr*p(a, '—') находят по таблице (приложение 5) по уровню значимости а и числу степеней свободы k=l—I и тогда правосторонняя критическая об- область определяется неравенством а область принятия гипотезы — неравенством Обозначим значение критерия Бартлета, вычисленное по данным наблюдений, через Внле>„ и сформулируем пра- правило проверки нулевой гипотезы. Правило. Для того чтобы, при заданном уровне зна чимости а. проверить нулевую гипотезу об однородности дисперсий нормальных совокупностей, надо вычислить наблюдаемое значение критерия Бартлета и по таблице кри тических точек распределения %а найти критическую теп "У 4Р (а. <-¦)• Если Внабл <Хкр — нет оснований отвергнуть нулевую гипотезу. • Если Внавя >Х$р— нулевую гипотезу отвергают Замечание 1. Не следует торопиться вычислять постоян- постоянную С. Сначала надо найти V и сравнить с xjL.' ССЛ1: окажется что V <ХкР . то подавно (так как О > 1) В = -q <У^. и следова- следовательно, С вычислять не нужно. Если же V > Хкр. ?о надо вычислить О я затем сравнить В с Замечание 2 Критерий Бартлета весьма чувствителен к отклонениям распределений от нормального, поэтому к выводам, полученным по этому критерию надо отоситься с осторожностью Пример. По четырем независимым выборкам объемов «1=10, п2=12, п3=15, п4—16, извлеченным из нормальных генеральных совокупностей, найдены исправленные выбо рочные дисперсии, соответственно равные 0,25. 0.40; 0,36; 0,46. При уровне значимости 0,05. проверить гипотезу об однородности дисперсий (критическая область — право сторонняя). Решение. Составим расчетную таблицу 25 (стол бец 8 пока заполнять не будем, поскольку еше неизвестно понадобится ли вычислять С): 323 Таблица 1 I 1 1 2 3 4 1 2 2 i Объем выборки 10 13 15 16 а Число сте- степеней сво- свободы k, 9 12 14 15 It = 50 4 Диспср ¦ сии 0.25 0.40 0.36 0.46 5 2 25 4.80 5.04 6.90 18.99 в ¦в* Г.3979 Г, 6021 7,5563 1,6628 7 Mr*2, 6,5811 5,2252 7,7822 6,9420 Й.5305 в ; 1 ! hi \ Пользуясь расчетной таблицей, найдем: ? = ±LJ!L = JS^H. = 0,3798; ig 0,3798 = Г.5795. к SO V = 2.303 [* IgT8 - 2 ki 1g s?J - = 2,303E0- 1.5795—22.5305]= 1.02 По таблице (приложение 5), по уровню значимости 0,05 и числу степеней свободы /—1=4—1=3, находим критическую точку х«р @,05; 3)=7,8 Так как V<y}Kp, то подавно (поскольку С>1) Янавл = ¦)?-< /кр и, следовательно, отвергнуть нулевую ги- гипотезу об однородности дисперсий иет оснований. Другими словами, исправленные выборочные дисперсии различа- различаются незначимо. Замечание 3. Если требуется оценить генеральную дне- персню, то. при условии однородности дисперсий, целесообразно принять в качестве ее оценки среднюю арифметическую исправ- исправленных дисперсий взвешенную по числам степеней свободы т е. Например, в рассмотренной задаче в качестве оиепкн генеральной дисперсии целесообразно принять 0,3798 329
§ 20. Сравнение нескольких дисперсий нормальных генеральных совокупностей по выборкам одинакового объема. Критерий Кочрена Пусть генеральные совокупности Xt, Хг Xt рас- распределены нормально. Из этих совокупностей извлечено / выборок одинакового объем an и по ним най- найдены исправленные выборочные дисперсии s,2, %* s,2, все с одинаковым числом степеней свободы k—n—1. Требуется по исправленным дисперсиям при заданном уровне значимости а проверить нулевую гипотезу, сос- состоящую в том, что генеральные дисперсии рассматрива& мых совокупностей равны между собой: Но : D(Xl)«D(Xa)-...-D(Xi). Другими словами, требуется проверить, значимо или незначимо различаются исправленные выборочные дис- дисперсии. В рассматриваемом случае выборок одинакового объе- объема, можно по критерию Фишера—Сиедекора (§ 8) сравнить наибольшую и наименьшую дисперсии; если окажется, что различие между ними незначимо, то подавно незначимо и различие между остальными дисперсиями. Недостаток этого метода состоит в том, чго информация, которую содер- содержат остальные дисперсии, кроме наименьшей и наиболь- наибольшей, учтена не будет. Можно также применить критерий Бартлета Однако, как указано в § 19, известно лишь приближенное распределение этого критерия, поэтому предпочтительнее использовать критерий Кочрена, распределение которого найдено точно. Итак, в качестве критерия проверки нулевой гипотезы примем критерий Кочрена — отношение максимальной ис- исправленной дисперсии к сумме всех исправленных диспер- дисперсий: S? Распределение этой случайной величины зависит только от числа степеней свободы k=n—1 и количества выборок I. Критическую область строят правостороннюю, исходя из требования, чтобы вероятность попадания критерия 330 в эту область, в предположении справедливости нулевой гипотезы, была равна принятому уровню значимости P[G>Guv(*,kt 01-а. Критическую точку С,, (а, k. Г) находят по таблице * и тогда правосторонняя критическая область определяется неравенством а область принятия нулевой гипотезы — неравенством G<GKp. Обозначим значение критерия, вычисленное по данным наблюдений, через виабл и сформулируем правило провер- проверки нулевой гипотезы. Правило. Для того чтобы, при заданном уровне значи- значимости а, проверить гипотезу об однородности дисперсий нормально распределенных совокупностей, надо вычислить наблюдаемое значение критерия и по таблице найти крити- критическую точку. Если Сабл <бкр — нет основании отвергнуть нулевую гипотезу. Если бнабл >Скр—нулевую гипотезу отвергают. Замечание. Если требуется оценить генеральную днепер- сню, то, при условии однородности дисперсий, целесообразно при- принять в качестве ее оценки среднюю арифметическую исправленных выборочных дисперсий Пример. По четырем независимым выборкам одинакового объема я=17, извлеченным из нормальных генеральных совокупностей, найдены исправленные дисперсии: 0,26; 0,36; 0,40; 0,42. Требуется: а) при уровне значимости 0,05, проверить нулевую гипотезу об однородности генеральных дисперсий (критическая область — правосторонняя), б) оцсинть генеральную дисперсию. Решение, а) Найдем наблюдаемое значение крите- критерия Кочреиа — отношение максимальной исправленной дисперсии к сумме всех дисперсий: 0,42 'набл 0.26 + 0,36+ 0.40+ 0,42 = 0,2917. • И. В. Смирнов. И. В. Дунин-Барковский. Курс теории вероятностей н математической статистики для техни- технических приложений Габл. VI11, «Наука», 1965 331
Найдем по таблице (см. сноску иа стр. 331) по уровню зна- значимости 0,05, числу степеней свободы Л== 17—1 = 16 и чис- числу выборок 1=4, критическую точку GKp @,05; 16; 4)= =0,4366. Так как GHa6j, <Скр — нет основании отвергнуть нуле- нулевую гипотезу об однородности дисперсий. Другими сло- словами, исправленные выборочные дисперсии различаются незначимо. б) Поскольку нулевая гипотеза справедлива, в качестве оценки генеральной дисперсии примем среднюю арифмети- арифметическую исправленных дисперсий: 0« = 0.26+0.36 + 0,40+0,42 = q 35 § 21. Проверка гипотезы о значимости выборочного коэффициента корреляции Пусть двумерная генеральная совокупность (X, К) распределена нормально. Из этой совокупности извлечена выборка объема пило ней найден выборочный коэффици- коэффициент корреляции гв, который оказался отличным от нуля. Так как выборка отобрана случайно, то еще нельзя заклю- заключить, что коэффициент корреляции генеральной совокуп- совокупности гг также отличен от нуля. В конечном счете, нао интересует именно этот коэффициент, поэтому возникает необходимость, при заданном уровне значимости а, про- проверить нулевую гипотезу H0:rt—Q о равенстве нулю гене- генерального коэффициента корреляции, при конкурирующей гипотезе Ht : гтф0. Если нулевая гипотеза будет отвергнута, то это означает, что выборочный коэффициент корреляции значимо отли- отличается от нуля (коротко: значим), а X и У коррелироваиы, т. е. связаны линейной зависимостью. Если нулевая гипотеза будет принята, то выборочный коэффициент корреляции иезначим, а X и К иекоррелнра ваиы, т. е. не связаны линейной зависимостью. В качестве критерия проверки нулевой гипотезы примем случайную величину 332 Величина Т, при справедливости нулевой гипотезы, имеет распределение Стьюдента с k—n—2 степенями свободы. Поскольку конкурирующая гипотеза имеет вид r,.=j&0, критическая область — двусторонняя; она строится так же, как в § 12 (первый случай). Обозначим значение критерия, вычисленное по данным наблюдений, через Г„авл и сформулируем правило провер- проверки нулевой гипотезы. Правило. Для того чтобы прн заданном уровне значи- значимости а, проверить нулевую гипотезу Но: гг=0 о равенстве нулю генерального коэффициента корреляции нормальной двумерной случайной величины, при конкурирующей ги- гипотезе //,: гг^=0, надо вычислить наблюдаемое значение критерия ' набл и по таблице критических точек распределения Стьюдеита по заданному уровню значимости и числу степеней свободы k=n— 2, найти критическую точку ««р (a, k) для двусторон- двусторонней критической области. Если | Гнабл I «кр— нет оснований отвергнуть нулевую гипотезу. Если | Гнавл I >'кр — нулевую гипотезу отвергают. Пример. По выборке объема л=122, извлеченной из нормальной двумерной совокупности (X, Y), иайдеи выбо- выборочный коэффициент корреляции гв=0,4. При уровне зна- значимости 0,05, проверить нулевую гипотезу о равенстве нулю генерального коэффициента корреляции при конкури- конкурирующей гипотезе W,: ггф0. Решение. Найдем наблюдаемое значение критерия л По условию конкурирующая гипотеза имеет внд поэтому критическая область — двусторонняя. По уровню значимости 0,05 и числу степеней свободы ft=122—2=120, находим по таблице (приложение 6) для двусторонней критической области критическую точку *ко @,05; 120)= 1,98 ззз
Поскольку ГщСл >'кР — нулевую гипотезу отвергаем. Другими словами, выборочный коэффициент корреляции значимо отличается от нуля, т. е. X и У коррелироваиы. § 22. Проверка гипотезы о нормальном распределении генеральной совокупности. Критерий согласия Пирсона »¦ В предыдущих параграфах закон распределения гене- генеральной совокупности предполагался известным. Если закон распределения неизвестен, но есть основания предположить, что он имеет определенный вид (назовем его А), то проверяют нулевую гипотезу: генеральная сово- совокупность распределена по закону А. Проверка гипотезы о предполагаемом законе неизвест- неизвестного распределения производится так же, как и проверка гипотезы о параметрах распределения, т. е. при помощи специально подобранной случайной величины — критерия согласия. Критерием согласия называют критерий проверки ги- гипотезы о предполагаемом законе неизвестного распреде- распределения. Имеется несколько критериев согласия: х* («хи квад- квадрат») К- Пирсона, Колмогорова, Смирнова н др. Ограничимся описанием применения критерия Пирсона к проверке гипотезы о нормальном распределении генераль- генеральной совокупности (критерий аналогично применяется и для других распределений, в этом состоит его достоинство). С этой целью будем сравнивать эмпирические (наблюдае- (наблюдаемые) и теоретические (вычисленные в предположении нор- нормального распределения) частоты. Обычно эмпирические и теоретические частоты разли- различаются. Например (гл. XVII, § 7). эмп. частоты теорет. частоты 6 13 38 74 106 85 30 10 4 3 14 42 82 99 76 37 11 2. Случайно ли расхождение частот? Возможно, что рас- расхождение случайно (незначимо) и объясняется малым числом наблюдений, либо способом их группировки, либо другими причинами. Возможно, что расхождение частот неслучайно (значимо) н объясняется тем, что теоретические частоты вычислены, исходя из неверной гипотезы о нормальном распределении генеральной совокупности. 334 Критерий Пирсона отвечает иа поставленный выше вопрос. Правда, как и любой критерий, он не доказывает справедливость гипотезы, а лишь устанавливает, на при- принятом уровне значимости, ее согласие или несогласие с данными наблюдений. Итак, пусть по выборке объема и получено эмпиричес- эмпирическое распределение: варианты х, х, хг ... xs, эмп. частоты п, nt n2 ... ns. Допустим, что в предположении нормального распре- распределения генеральной совокупности, вычислены теоретичес- теоретические частоты п\ (например так, как в следующем парагра- параграфе) При уровне значимости а, требуется проверить нуле- нулевую гипотезу; генеральная совокупность распределена нормально. В качестве критерия проверки нулевой гипотезы примем случайную величину уа= ^ ("I-"!)' (•) Эта величина случайная, гак как в различных опытах она принимает различные, заранее неизвестные значения. Яс- Ясно, что чем меньше различаются эмпирические и теорети- теоретические частоты, гем меньше величина критерия (*) и, сле- следовательно, он в. известной степени .характеризует близость эмпирического и теоретического распределений. Заметим, что возведением в квадрат разностей частот устраняют возможность взаимного погашения положитель- положительных н отрицательных разностей. Делением на п\ дости- достигают уменьшения каждого из слагаемых; в противном слу- случае сумма была бы настолько велика, что приводила бы к отклонению нулевой гипотезы даже и тогда, когда она справедлива. Разумеется, приведенные соображения не являются обоснованием выбранного критерия, а лишь пояснением. Доказано, что прн л-+оо закон распределения случайной величины (*), независимо от того, какому закону распре- распределения подчинена генеральная совокупность, стремится к закону распределения у} с к степенями свободы. Поэтому случайная величина (*) обозначена через зса, а сам критерий называют критерием согласия «хи квадрат». 335
Число степеней свободы находят по равенству k=s— 1—г, где s — число групп (частичных интервалов) выборки; г — число параметров предполагаемого распределе- распределения, которые оценены по данным выборки. В частности, если предполагаемое распределение — нор- нормальное, то оценивают два параметра (математическое ожи- ожидание и среднее квадратическое отклонение) поэтому г—2 и число степеней свободы k=s— I—r=s— I—2=s—3. Если, например, предполагают, что генеральная сово- совокупность распределена по закону Пуассона, то оценивают один параметр к, поэтому г=\ и k=s—2. Поскольку односторонний критерий более «жестко» отвергает нулевую гипотезу, чем двусторонний, построим правостороннюю критическую область, исходя из требо- требования, чтобы вероятность попадания критерия в эту об- область, в предположении справедливости нулевой гипотезы, была равна принятому уровню значимости а: Таким образом, правосторонняя критическая область определяется неравенством а ^область принятия нулевой гипотезы — неравенством X1 ? Обозначим значение критерия, вычисленное по данным наблюдений, через /^ н сформулируем правило проверки нулевой гипотезы. Правило. Для того чтобы, при заданном уровне значи- значимости, проверить нулевую гипотезу Но: генеральная со- совокупность распределена нормально, надо сначала вычис- вычислить теоретические частоты, а затем наблюдаемое значение критерия С*) и по таблице критических точек распределения ха. по за- заданному уровню значимости а, и числу степеней свободы k=s—3, найти критическую точку -/} (a; k). 336 Хнабл<>'-кр ~~ нет оснований отвергнуть нулевую гипотезу. F-сли 3^авл>х5р— нулевую гипотезу отвергают. Замечание 1. Объем выборки должен быть достаточно велик, во всяком случае не менее 50. Каждая группа должна содер- содержать не менее 5—8 вариант^малочисленные группы следует объеди- объединять в одну, суммируя частоты. -.-' Замечание 2. Поскольку возможны ошибки первого и второго рода, в особенности, если согласование теоретических и эмпирических частот «слишком хорошее», следует проявлять осто- осторожность. Например, можно повторить опыт, увеличить число наб- наблюдений, воспользоваться другими критериями, построить график распределения, вычислить асимметрию и эксцесс (гл. XVII, § 8). Замечание 3. В целях контроля вычислений, формулу *•) преобразуют к виду ^== я, Рекомендуем читателю выполнить это преобразование самостоя- самостоятельно, для чего надо в (**) возвести в Квадрат разность частот, сократить результат на п\ и учесть, что ?»ij =* п. Еп( — п. Пример. При уровне значимости 0,05, проверить гипо- гипотезу о нормальном распределении генеральной совокуп- совокупности, если известны эмпирические и теоретические час- частоты: эмп. частоты 6 13 38 74 106 85 30 14 теорет. частоты 3 14 42 82 99 76 37 13. Решение. Вычислим хЦавл' яля чего сосТавим рас. четную таблицу 26. Таблица 26 I 1 1 2 3 4 5 6 7 8 S 2 *1 6 13 38 74 106 85 30 14 366 3 t п1 3 14 42 82 99 76 37 13 366 4 3 -1 —4 -8 7 9 -7 \ б 9 1 16 64 49 81 49 1 6 / '\2 ("!-"<) 3 0,07 0.38 0,78 0,49 1,07 1.32 0.08 Х?1аСл=7.19 7 А 36 169 1444 5476 11236 7225 900 196 8 \ 4- *i 12 12.07 34,38 66,78 113,49 95,07 94,32 15.08 373.19 12—43 337
КОНТРОЛЬ: а=7'|9: > -4- —п = 373,19 — 366= 7.19. -^ «. Вычисления произведены правильно. Найдем число степеней свободы, учитывая, что число групп выборки (число различных вариант) s=8: /г=8—3=5. По таблице критических точек распределения уа (при- (приложение 5), по уровню значимости а=0,05 и числу степе- степеней свободы k—Ь, находим х2р(О,О5; 5)=11,1. Так как xfla6,.,</.Kp "~ "ет оснований отвергнуть нулевую гипотезу. Другими словами, расхождение эмпирических и теоретических частот незначимое. Следовательно, данные наблюдений согласуются с гипотезой о нормальном рас- распределении генеральной совокупности. § 23. Методика вычисления теоретических частот нормального распределения Как следует из предыдущего параграфа, сущность кри- критерия согласия Пирсона состоит в сравнении эмпирических и теоретических частот. Ясно, что эмпирические частоты находят из опыта. Как найти теоретические частоты, если предполагается, что генеральная совокупность распределе- распределена нормально? Ниже указан один из способов решения этой задачи. 1. Весь интервал наблюдаемых значений X (выборки объема л) делят иа s частичных интервалов (х„ х/+1) оди- одинаковой длины. Находят середины частичных интервалов я* = ¦ *&*'*}.. ; в качестве частоты п, варианты х,* прини- принимают число вариант, которые попали в i-й интервал. В итоге получают последовательность равноотстоящих ва- вариант и соответствующих им частот: *• Х2 ••• *f . Л, Пг ... ns, причем 2п,=п. 2. Вычисляют, например методом произведений, выбо- выборочную среднюю ** и выборочное среднее квадратическое отклонение о*. 3. Нормируют случайную величину X, т. е. переходят к величине 338 Х-х* и вычисляют концы интервалов [zt, г,+1): „ Хы — ж* причем наименьшее значение Z, т. е. г, полагают равным —оо, а наибольшее, т. е. г4 полагают равным оо. 4 Вычисляют теоретические вероятности р, попада- попадания X в интервалы (xt, xui) по равенству (Ф(г) — функция Лапласа) Р Ф() и, наконец, находят искомые теоретические частоты /г,'«= -пр{. Пример. Найти теоретические частоты по заданному интервальному распределению выборки объема rt=200, предполагая, что генеральная совокупность распределе- распределена нормально (табл. 27). Таблица 27 Номер I интервал! : t 2 з 4 5 Гранили ', 4 в 8 10 12 интервала 'ш 6 8 10 12 14 Цас-т,-,™; 15 26 25 30 26 Номер интервала 1 6 7 8 9 Границы интервала «1 14 16 18 20 '« 16 18 20 22 Частота: "t ' 21 24 20 13 я=200 Решение!. Найдем середины интервалов х, Например, х,*=^=5. Поступая аналогично, получим последовательность равноотстоящих вариант х,* и соот- соответствующих им частот п,: *,*5 7 9 11 13 15 17 19 21 п, 15 26 25 30 26 21 24 20 13 • 2. Пользуясь методом произведений, найдем выбороч- выборочную среднюю и выборочное среднее квадратическое откло- отклонение: _ «•=12,63, а* =4,695 VI* 23)
3. Найдем интервалы (г,, г/+1), учитывая, что х* = 12,63 о* =4,695, — = 0,213, для чего составим расчетную таб- таблицу 28. Таблица 28 i \ \ ; 2 ! 3 i 4 ¦ 5 6 7 8 9 Границы интервал,! Х1 4 6 8 10 1? 14 16 18 20 6 8 10 12 14 16 18 20 22 —6,63 -4.63 —2,63 —0,63 1,37 3,37 5.37 7.37 -6.63 —4.63 -2.63 —0.63 1,37 3,37 5,37 7.37 — Границы — оо -1.41 —0.99 —0,156 -0,13 0,29 0.72 1.14 1.57 интервала ; (+1 о* -1.41 -0,99 —0,56 -0,13 0,29 0,72 1,14 i 1,57 i ОО { 4. Найдем теоретические вероятности р, и искомые теоретические частоты nl'=npl, для чего составим расчет- расчетную таблицу 29. Табли ц а 29 / 1 2 3 4 5 6 7 8 9 Границы интервала г1 —оо —1,41 —0.99 —0.56 —0,13 0,29 0,72 1.14 1,57 -1.41 —0.99 —0.56 —0,13 0,29 0.72 1.14 1.57 оо ф(*/) —0.5 —0,4207 -0,3389 —0,2123 -0,0517 0.1141 0,2642 0,3729 0.4418 ф ( */+•) —0,4207 -0,3389 —0.2123 —0.0517 0.1141 0.2642 0.3729 0,4418 0,5 р,- - ф ( *hi) -*(*|) 0,0793 0,0818 0,1266 0.1606 0,1658 0,1501 0,1087 0,0689 0,0582 я)= пре = = 200р, 15,86 16.36 25,32 32,16 33.16 30,02 21,74 13,78 11.64 2»;-а» Искомые теоретические частоты помещены в последнем столбце таблицы 29. 340 а) /ц = 21, /12 = 16, б) /и = 13. /I» = 18. Задачи 1. По двум независимым выборкам объемов »ii и >н, извлечен- извлеченным in нормальных генеральных совокупностей X и У, найдены исправленные выборочные дисперсии s^ u s^. При уровне значи- значимости а проверить нулевую гипотезу На: D (X) = D (К) о равен- равенстве генеральных дисперсий, при конкурирующей гипотезе Hi : D (X) > D (К), если: " = 3,6. 4 = 2-4> я = °-05; 2Х = 0,72. s2Y = 0,20, о = 0,01 Отв. a) Fнабл = 1.5". fKp@,05; 20; 15) = = 2,33. Нет основа- оснований отвергнуть нуле- нулевую гипотезу; б) F«a6n = 3,6; />@,01; 12; 17) =3,46. Нулевая гипотеза от- отвергается. 2. По двум независимым выборкам объемов п и т, извлеченным из нормальных генеральных совокупностей X и К, найдены выбо- выборочные средние Т«~у. Генеральные дисперсии D (X) и D (К) извест- известны. При уровне значимости о проверить нулевую гипотезу Ht: М (X) = М (К) о равенстве математических ожиданий, при конкурирующей гипотезе Hi : М (X) Ф М (К), если: а) п = 30. т = 20, D (X) = 120, D (К) = 100, о= 0.05; б) п = 60, m = 40. D (X) = 50, D (К) = 120. о = 0,01. Отв. a) ZHa6l = 1, гкр = = 1,96. Нет основании отвергнуть пулевую ги- гипотезу; б) Z,,a6fl = 10. *кр = 2,58. Нулевая ги потеза отвергается. 3. По двум независимым выборкам объемов п = 5 н m = 6, извлеченным из нормальных генеральных совокупностей X и Y, найдены выборочные средние ж = 15.9, у = 14,1 и исправленные выборочные дисперсии s^ = 14,76, *у = 4,92. При уровне значи- значимости 0,05 проверить пулевую гипотезу М„: М (X) = М (К) о равенстве математических ожиданий, при конкурирующей гипоте- гипотезе Их : М (X) + М (Y). Указание. Предварительно сравнить дисперсии. Отв. Г||асл = 0,88, гкр @,05; 9) = 2,26. Нет основании отверг- отвергнуть нулевую гипотезу. 4. Из нормалыюП генеральной совокупности с известным сред- средним квадратическим отклонением о = 2,1 извлечена_выборка объе- объема п = 49 и но ней найдена выборочная средняя к = 4,5. Требу- Требуется, при уровне значимости 0,05 проверить нулевую гипотезу 341
Ho i a = 3 о равенстве математического ожидания гипотетически му значению, лрн конкурирующей гипотезе Н\ : а ф 3. Отв. ит6я = 5, ики = = 1,96. Нулевая гипо- гипотеза отвергается 5. По выборке объема п — 16. извлеченной из нормальной генеральной совокупности, найдены выборочная средний х= 12,4 и «исправленное» среднее квадратнческое отклонение s = 1,2. Требуется, при уровне значимости 0,05, проверить нулевую гипо- гипотезу Но: а = 11,8 о равенстве математического ожидания гипоте- гипотетическому значению, при конкурирующей гипотезе Н\ \ а Ф [1,8. Отв. Г„а6л = 2. tK @,05; 15) = 2,13. Нет осно- оснований отвергнуть ну- нулевую гипотезу. 6. Двумя приборами измерены 5 деталей Получены следую- следующие результаты (в мм): xi — 4, хг = 5, хз =6, xt = 7, хв= & 4»i = 5, уг — 5, уз = 9. у, = 4, уъ= 6. При уровне значимости 0,05, проверить, значимо или незначимо различаются результаты измерении Отв. Гнабл = 10,54, tKp @,05; 4) = 2,78. Различие результатов измерений значимое. 7. По 100 независимым испытаниям найдена относительная час- частота — = 0,15 При уровне значимости 0,05 проверить нулевую п гипотезу Но : р = 0,17 о равенстве относительной частоты гипоте- гипотетической вероятности, прн конкурирующей гипотезе tf i: р Ф 0,17 Отв. | ииа6я | = 0,53, Икр = 1.96- Нет осно- оснований отвергнуть нуле- нулевую гипотезу. 8. По пяти независимым выборкам объемов щ = 7, щ = 9, пз — 10, л, = 12, nt, — 12, извлеченным из нормальных генераль- генеральных совокупностей, найдены исправленные выборочные дисперсии: 0,27; 0,32; 0.40; 0,42; 0,48. При уровне значимости 0,05, проверить пулевую гипотезу об однородности дисперсий (критическая об- область — правосторонняя). Указание. Воспользоваться критерием Бартлета (§ 19). Отв. V — 6,63, х?р @,05; 4) = 9,5. Нет основа- оснований отвергнуть нулевую гипотезу. 9. По четырем независимым выборкам одинакового объема п =¦ 17, извлеченным из нормальных совокупностей, найдены ис- исправленные выборочные дисперсии: 2,12; 2,32; 3,24; 4,32. Требует- Требуется: а) прн уровне значимости 0,05, проверить нулевую гипотезу о равенстве генеральных дисперсий (критическая область — пра- правосторонняя), б) оценить генеральную дисперсию. 342 Указание. Воспользоваться критерием Кочрена (§ 20) - Отв. а) С„аб, = 0,36 Скр@,05; 16,4) = = 0,4366. Нет основа- оснований отвергнуть пуле- пулевую гипотезу; б) о=-3 10. По выборке объема п = 62, извлеченной пз двумерной нор мальной совокупности (X, К), найден выборочный коэффициент корреляции гв = 0,6 При уровне значимости 0,05, проверить ну левую гипотезу На t rt = 0 о равенстве нулю генерального коэф фициеита корреляции прн конкурирующей гипотезе г, Ф 0 Отв. Тна6л = 5,81, <кр@,05; 60) = 2,0. Ну левая гипотеза отвер гается 11. При уровне значимости 0,05, проверить гипотезу о нор- нормальном распределении генеральной совокупности если известны эмпирические и теоретические частоты: а) эмппр частоты 6 12 16 40 13 8 5 теорет частоты 4 И 15 43 15 6 6; б) эмпир частоты 5 6 14 32 43 39 30 20 6 5 4 7 12 29 48 35 34 18 7 6. 2 р теорет частоты в) эмпир частоты 4 7 12 29 48 35 34 5 13 12 44 8 12 6 эмпир частоты 5 13 12 44 8 12 6 теорет. частоты 2 20 12 35 15 10 6 а) ^ ) х^аол . ^р@.05; 4) = 9,5. Нет оснований отвергнуть гипотезу; б) xLftn133 y^iO.Ob; 7)= 14,1 Нет оснований отверг- отвергнуть гипотезу; в) х^бл = - 13, ХкР @.05; 4) = = 9,5 Гипотеза от- отвергается Глава аввячатая ОДНОФАКТОРНЫЙ ДИСПЕРСИОННЫЙ АНАЛИЗ § 1. Сравнение нескольких средних Понятие о дисперсионном анализе Пусть генеральные совокупности Xit X2, ... Хр распре- распределены нормально и имеют одинаковую, хотя и неизвест ную, дисперсию; математические ожидания также иеиз вестиы; но могут быть различными Требуется при задад- 343
ном уровне значимости, по выборочным средним проверить нулевую гипотезу Но: Л1(Х1)=Л1(Х2)=...=,М(Хр) о равенстве всех математических ожиданий. Другими сло- словами, требуется установить, значимо или незначимо раз- различаются выборочные средине. Казалось бы, для сравнения нескольких средних (р>2) можно сравнить их попарно. Однако, с возрастанием числа средних, возрастает и наи- наибольшее различие между ними: среднее новой выборки может оказаться больше наибольшего или меиьше наимень- наименьшего из средних, полученных до нового опыта. По этой причине для сравнения нескольких средних пользуются другим методом, который основан на сравнении дисперсий и поэтому назван дисперсионным анализом (в основном развит английским статистиком Р. Фншером). На практике дисперсионный анализ применяют, что- чтобы установить, оказывает ли существенное влияние неко- некоторый качественный фактор F, который имеет р уровней Flt F2, .... Fp иа изучаемую величину X. На- Например, если требуется выяснить, какой вид удобрений наиболее эффективен для получения наибольшего урожая, то фактор F — удобрение, а его уровни — виды удобрений. Основная идея дисперсионного анализа состоит в срав- сравнении «факторной дисперсии», порождаемой воздействием фактора и «остаточной дисперсию, обусловленной случай- случайными причинами. Если различие между этими дисперсия- дисперсиями значимо, то фактор оказывает существенное влияние на X; в этом случае средние наблюдаемых значений иа каждом уровне (групповые средние) будут различаться также значимо. Если уже установлено, что фактор существенно влияет иа X, а требуется выяснить, какой из уровней оказывает наибольшее воздействие, то дополнительно производят попарное сравнение средних. Иногда дисперсионный анализ применяется, чтобы уста- установить однородность нескольких совокупностей (дисперсии этих совокупностей одинаковы по предполо- предположению; если дисперсионный анализ покажет, что и мате- математические ожидания одинаковы, то в этом смысле совокуп- совокупности однородны). Однородные же совокупности можно объединить в одну и тем самым получить о ней более пол- полную информацию, а следовательно и более надежные выво- выводы. 344 В более сложных случаях исследуют воздействие нес- нескольких факторов иа нескольких постоянных или слу- случайных уровнях и выясняют влияние отдельных уровней и их комбинаций (многофакторный анализ). Мы ограничимся простейшим случаем однофакторного анализа, когда иа X воздействует только один фактор, кото- который имеет р постоянных уровней. § 2. Общая, факторная и остаточная суммы квадратов отклонений Пусть иа количественный нормально распределенный признак X воздействует фактор F, который имеет р по- постоянных уровней. Будем предполагать, что число наблю- наблюдений иа каждом уровне одинаково и равно 17. Пусть наблюдалось pq значений хи признака X, где i—номер испытания (i=l, 2, .... q), j—номер уров- уровня фактора (/=1, 2 р). Результаты наблюдений представлены в таблице 30. Таблица 30 i Номер испытания 1 2 » • • 9 Групповая средняя Уровни фактора Pj | «11 «SI *01 *rpi Р. «IS «» *,» *rpS. ... • • • • • • ... - '' - 1 «у» ! у ; *qp : <rpp ¦; . j Введем по определению: 2 2 (*„- (общая сумма квадратов отклонений наблюдаемых значеиий- от общей средней ~х), 1—1 {факторная сумма квадратов отклоиений групповых сред- 345
ннх от общей средней, которая характеризует рассеяние «между группами») ч _ п г \' {остаточная сумма квадратов отклонении наблюдаемых значений группы от своей групповой средней, которая ха- характеризует рассеяние «внутри групп»). Практически остаточную сумму находят по равенству (§ 3, следствие): ^ост ™ "общ — 5факт< Элементарными преобразованиями можно получить формулы, более удобные для расчетов: /"•I II Г р И» W 4 где Р,= J] д* —сумма квадратов значений признака на <=-! уровне F/, с /?(¦ J Jtj, —сумма значений признака на уровне Ft Замечание. Для упрощения вычислений вычитают из каждого наблюдаемого значения одно и то же число С, примерно равное обшей средней Если уменьшенные значения уц = хц—С то "оСш ^фокт — 346 Р9 (*•**) где Q/ = \\ У/1 — сумма квадратов уменьшенных значений признака J^, на уровне F/ я Tf = 2 уу — сумма уменьшенных значений признака на уровне Р/. Для вывода формул (••*) н (*•**) достаточно оодставнть % = * ч = У и + С в соотношение (•) u i?/ = ^R хц = У, (и м *= i + «С га Гу -f- qC (в соотношение (**). Пояснения. 1. Убеднмсся, что 5фа,,т характеризует воздействие фактора F. Допустим, что фактор оказывает существенное влияние иа X. Тогда группа наблюдаемых значений приз- признака на одном определенном уровне, будет, вообще говоря, отличаться от групп наблюдений на других уровиях. Сле- Следовательно, будут различаться и групповые средние, причем они тем больше рассеяны вокруг общей средней, чем большим окажется воздействие фактора. Отсюда сле- следует, что для оценки воздействия фактора целесообразно составить сумму квадратов отклонений групповых сред- средних от общей средней (отклонение возводят в квадрат, чтобы исключить погашение положительных и отрицатель- отрицательных отклонений). Умножив эту сумму на q, получим 5фаит. Итак, 5фаит характеризует воздействие фактора. 2. Убедимся, что S^ отряжает влияние случайных причин. Казалось бы наблюдения одной группы не должны различаться. Однако, поскольку на X, кроме фактора F, воздействуют и случайные причины,— наблюдения одной и той же группы, вообще говоря, различны и, значит, рассеяны вокруг своей групповой средней. Отсюда сле- следует, что для оценки влияния случайных причин целесо- целесообразно составить сумму квадратов отклонений наблюдае- наблюдаемых значений каждой группы от своей групповой средней, т. е. S^. Итак, S0CT характеризует воздействие случайных причин. 3. Убедимся, что So6vl отражает влияние и фактора и случайных причин. Будем рассматривать все наблюдения как единую совокупность. Наблюдаемые значения призна- признака различны вследствие воздействия фактора и случайных причин. Для оценки этого воздействия целесообразно составить сумму квадратов отклонений наблюдаемых зна- значений от общей средней, т. е. So6lu. 347
Итак, So6m характеризует влияние фактора и случай- случайных причин. Приведем пример, который наглядно показывает, что факторная сумма отражает влияние фактора, а остаточ- остаточная — влияние случайных причин. Пример. Двумя приборами произведены по 2 измерения физической величины, истинный размер которой равен х. Рассматривая в качестве фактора систематическую ошибку С, а в качестве его уровней—систематические ошиб- ошибки Ci и С2 соответственно первого и второго прибора, по- показать, что S^tHt определяется систематическими, а Soct ~~ случайными ошибками измерений. Решение. Введем обозначения: о1( а2— случайные ошибки первого и второго измере- измерений первым прибором, Pi, рг— случайные ошибки первого и второго измерений вторым прибором. Тогда наблюдаемые значения результатов измерений соответственно равны (первый индекс при х указывает номер измерения, а второй — номер прибора): дс|1=д;+С,+а|, хиС C Средние значения измерений первым и вторым прибо- приборами соответственно равны: = х + С, + я, *грг = * + Сг + ¦ Общая средняя факторная сумма Зфаит = (*rpi — X) т [Xr?i—X) . Подставив величины, заключенные в скобках, после эле- меитарных преобразований получим 'факт: 'А-С,) Мы видим, что 5ф„кт определяется, главным образом, первым слагаемым (поскольку случайные ошибки измере- 348 ний малы) и, следовательно, действительно отражает влия- влияние фактора С. Остаточная сумма Подставив величины, заключенные в скобках, получим 5О„ = К», - «)г + К - «J1 + [(Р, - W + (Р, - Р)«|. Мы видим, что Sq,., определяется случайными ошиб- ошибками измерений и, следовательно, действительно отражает влияние случайных причин. Замечание. То, что Socr порождается случайными при- причинами, следует также из равенства (§ 3, следствие) Действительно S06u, является результатом воздействия фак- фактора и случайных причин; вычитая 5факт, мы исключаем влияние фактора. Следовательно, «оставшаяся часть» отражает влияние случайных причин § 3. Связь между общей, факторной и остаточной суммами Покажем, что щ ф Для упрощения вывода ограничимся двумя уровнями (р=2) и двумя испытаниями на каждом уровне (q—2). Результаты испытаний представим в виде таблицы 31. Таблица 31 Номер испытания / 2 1 «гр/ Уровни фактора Fj f. | f. *ii Д-ai ^гр i Xg, XTpS j Тогда So0ui - (*„ - *f + (*„ - *J + (*,, -?)* + (*„- xf- Вычтем и прибавим к каждому наблюдаемому значению 349
на первом уровне групповую среднюю хгр1, а на втором — 2 Выполнив возведение в квадрат и учитывая, что сум- сумма всех удвоенных произведений равна нулю (рекомендуем читателю убедиться в этом самостоятельно), получим ^J (хгра - х) х) - х гр,) I So6u, = 2 Итак Следствие. Из полученного равенства вытекает важное следствие: Отсюда видно, что нет надобности непосредственно вычис- вычислять остаточную сумму: достаточно нчйти общую и фактор- факторную суммы, а затем их разность § 4. Общая, факторная и остаточная дисперсии Разделив суммы квадратов отклонений на соответствую щее число степеней свободы, получим общую, факторную и остаточную дисперсии: 2 =^Ц обш pq — I 4 Р (<?- где р — число уровней фактора, q — число наблюдении иа каждом уровне. Если нулевая гипотеза о равенстве средних справед- справедлива, то все эти дисперсии являются несмещенными оцен- оценками генеральной дисперсии. Например, учитывая что объем выборки n=pq. заключаем, что л-1 — исправленная выборочная дис- дисперсия, которая известно, является несмещенной оценкой генеральной дисперсии. Замечание. Число степеней свободы р (q — I) остаточ- остаточной ДйягерстГи равно разности между числами степеней свободы 350 общей в фактхрной дисперсий. Действительно, (/><? — 1) — (Р — 0 = PQ — Р = Р (в — I). § 5. Сравнение нескольких средних методом дисперсной иого анализа Вернемся к задаче, поставленной в§ 1: проверить, при заданном уровне значимости, нулевую гипотезу о равен- равенстве нескольких (р>2) средних нормальных совокупностей с неизвестными, ио одинаковыми дисперсиями. Покажем, что решение этой задачи сводится к сравнению факторной и остаточной дисперсий по критерию Фишера—Снедекора (гл. XIX, § 8). 1. Пусть нулевая гипотеза о равенстве нескольких средних (далее будем называть их групповыми) правиль- правильна. В этом случае факторная и остаточная дисперсии яв- являются несмещенными оценками неизвестной генеральной дисперсии (§ 4) н, следовательно, различаются незначимо. Если сравнить эти оценки по критерию F, то, очевидно, критерий укажет, что нулевую гипотезу о равенстве фак- факторной и остаточной дисперсий следует принять. Таким образом, если гипотеза о равенстве групповых средних правильна, то верна и гипотеза о равенстве фак- факторной и остаточной дисперсий. 2. Пусть пулевая гипотеза о равенстве групповых сред- средних ложна. В этом случае с возрастанием расхождения между групповыми средними будет увеличиваться фактор- с 2 _ „ ¦» факт пая дисперсия, а вместе с ней и отношение гна6л=—§—. 5 ост В итоге FHaejl окажется больше Ркр и, следовательно, ги- гипотеза о равенстве дисперсий будет отвергнута. Таким образом, если гипотеза о равенстве групповых средних ложна, то ложна и гипотеза о равенстве факторной и остаточной дисперсий. Легко доказать от противного справедливость обрат- обратных утверждений: из правильности (ложности) гипотезы о дисперсиях следует правильность (ложность) гипотезы о средних. Итак, для того чтобы проверить нулевую гипотезу о равенстве групповых средних нормальных совокупностей с одинаковыми дисперсиями, достаточно проверить по критерию F нулевую гипотезу о равенстве факторной и 351
остаточной дисперсий. В этом и состоит метод диспер- дисперсионного анализа. Замечание I Если факторная дисперсия окажется мень- меньше остаточной, то уже отсюда следует справедливость гипотезы о равенстве групповых средних и. значит, нет надобности прибегать к критерию F. Замечание 2. Если иет уверенности в справедливости предположения о равенстве дисперсий рассматриваемых р совокуп- совокупностей, то это предположение следует проверить предварительно, например по критерию Кочрена. Пример. Произведено по 4 испытания на каждом из трех уровней. Результаты испытаний приведены в таблице 32. Методом дисперсионного анализа при уровне значимости 0,05 проверить пулевую гипотезу о равенстве групповых средних. Предполагается, что выборки извлечены из нор- нормальных совокупностей с одинаковыми дисперсиями. Таблица 32 ! Номер : 1 1 2 3 4 : *гр/ г. 51 52 56 57 54 Уровни фактора F. F, 52 54 56 58 55 Л 42 44 50 52 47 Решение. Для упрощения расчета вычтем С=52 из каждого наблюдаемого значения: у1( =хи —52. Соста- Составим расчетную таблицу 33. Пользуясь таблицей и учитывая, что число уровней фактора /э=3, число испытаний иа каждом уровне <?=4, найдем общую и факторную суммы квадратов отклонений [§ 2, формулы (•*•) и (****)]: J=a ' РЯ 266-0 = 266; 608 — 0= 152. 352 Таблица 33 i Номер ' испытания ; t ; i 1 2 ¦ 3 ; 4 I s# — S*?# Уровни фактора F/ F "/I — 1 0 4 5 8 "?, 1 0 16 25 42 F, "/« 0 2 4 6 12 0 4 16 36 56 \ tj j 64 i I 144 I "I, -10 -8 -2 0 -20 4 100 64 4 0 168 400 . 2 S, = 266 | 2^ = 0 : 2Г? = 608 76; Найдем остаточную сумму квадратов отклонений: Socx = So6m - 5факт = 266 - 152 = 114. Найдем факторную и остаточную дисперсии: 152 3D-., '. -12'67' Сравним факторную и остаточную дисперсии по кри- критерию F (гл. XIX, § 8), для чего найдем наблюдаемое значение критерия: г. «факт 76 12.67 = 6 Учитывая, что число степеней свободы числителя ft|=2, а знаменателя ft2=9 и уровень значимости а=0,05, по таблице находим критическую точку FKP@,05; 2; 9)=4,26. Так как Fat6Jl>FKp, нулевую гипотезу о равенстве групповых средних отвергаем. Другими словами, групповые средние «в целом» различаются значимо. Если требуется сравнить средние попарно, то следует воспользоваться критерием Стьюдента. 3.-i3
Замечание 3. Если наблюдаемые значения хп — деся- десятичные дроби с одниг: знаком после запятой, то целесообразно пе- ренти к числам у,,= Ю хц—С. где С - примерно среднее значе- значение чисел 10ху. В итоге получим сравнительно иебольшие целые числа. Хотя при этом факторная и остаточная дисперсия увеличи- увеличиваются в I08 раз — их отношение не изменится. Например, если У11 А"~ 123> полним:'1' *" "" l2>2> *" = l2'Gl Г° *„ = 12"|-123-=-2. й|- 122-123=-!. „и .-= 126-123=3 Аналогично поступают, если после запятой имеется k знаков: й/=10*.*у-С. Задачи В задачах 1—2 требуется при уровне значимости 0.05 прове- проверить нулевую гипотезу о равенстве групповых средних. Прадиола- гается, что выборки извлечены из нормальных совокупностей с одинаковыми генеральными дисперсиями 1пностеи с Номер нспытаннн i F, 42 55 67 67 57.75 Уровни фактора F. F, 66 98 87.75 P, I 35 50 60 69 53.50 64 70 79 81 70 79 88 90 73,50 : 81,75 Отв. fKp@.05; Нулевая 4; 15) = 3.06. гипотеза от 2. • Номер : нспытаннн : t i 2 ! 3 : 4 F, 6 7 8 II 8 вергается. Уровни факторе F. F, 7 11 12 9 Р, 9 12 13 14 12 F. : 7 i 9 : 10 I 10 9 : Отв. F, 2,4; FKp@,05; 3; 12)= Нет оснований отверг- отвергнуть нулевую гипотезу н»6л = =3,49. Приложение 1 (*) = —- е * ! 0,0 : 0,1 : 0,2 0,3 0 4 0^5 0,6 0,7 0.8 0,9 .0 ,1 .2 .3 ,4 .5 ,6 ,7 .6 .9 2.0 2,1 2,2 2.3 2.4 2.5 2 6 2 7 2.8 2,9 3.0 3.1 3.2 3.3 3,4 : 3,5 : 3.0 ¦ 3,7 : 3.8 : 3.9 0 0,3989 3970 3910 3814 3683 3521 3332 3123 2897 2661 0,2420 2179 1942 1714 1497 1295 1109 0940 0790 0656 0.0540 0440 0355 0283 0224 0175 0136 0104 0079 0060 0.0044 0033 0024 0017 0012 0009 0006 0004 0003 0002 3989 3965 3902 3802 3668 3503 3312 3101 2874 2637 2396 2155 1919 1691 1476 1276 1092 0925 0775 0644 0529 0431 0347 0277 0219 0171 0132 0101 0077 0058 0043 0032 0023 0017 0012 0008 0006 0004 0003 0002 1 3989 3961 3894 3790 3653 3485 3292 3079 2850 2613 2371 2131 1895 1669 1456 1257 1074 0909 0761 0632 0519 0422 0339 0270 0213 0167 0129 0099 0075 0056 0012 0031 0022 0016 0012 0008 0006 0004 0003 0002 3 3988 3956 3885 3778 3637 3467 3271 3056 2827 2589 2347 2107 1872 1647 1435 1238 1057 0893 0748 0620 0508 0413 0332 0264 0208 0163 0126 0096 0073 0055 0040 0930 0022 0016 ООП 0008 0005 0004 0003 0002 4 3986 3951 3876 3765 3621 3448 3251 3034 2803 2565 2323 2083 1849 1626 1415 1219 1040 0878 0734 0608 0498 0404 0325 0258 0203 0158 0122 0093 0071 0053 0039 0029 0021 0015 ООП 0008 0005 0004 0003 0002 5 3984 3945 3867 3752 3605 3429 3230 ЗОН 2780 2541 2299 2059 1826 1604 1394 1200 1023 0863 0721 0596 0488 0396 0317 0252 0198 0154 0119 0091 0069 0051 0038 0028 0020 0015 0010 0007 0005 0004 0002 0002 6 7 8 3982 3980 3977 3939: 3932:3925 3657 3847 3836 3736 3726 3712 9 397? 3918 3825 3697 3589 3572 3555 3538: 3410 3391! 3372 3352: 3209 3187! 3166: 3144: 2989 2966!2913: 2920! 2756 2732! 2709: 2685: 2516 2492! 2468 2414 2276: 2251 i 2227 2203 i 203612012;1989; 1965 s 1804:1761 1758 1736: 1582:1561:1539:1516; 1374! 1354! 1334: 1315: 1162! 1163 1145: 1127: 1006! 0989: 0973 0957: 0848:0833:0816:0804: 0707:0694:0681:0669: 0584; 0573:0562 i 0551 i 0478 0468 0459i 0149: 0387 0379; 0371: 0363: 0310 0303 i 0297 ' 0290 0246 0241! 0235 0229; 0194 0189! 0184 0180! 0151 0147! 0143 0139! 0116 0113:0110 0107! 0088! 0086! 0084! 0081: 0067 i 0065! 0063! 0061 = 0050! 0048 i 0047 i 0046 0037 0036100351 0034 0027 0026 i 0025! 0025 0020: 0019! 0018:0016 0014 0014:0013:0013: 0010.00101 0009 0007 i 0007 i 0007 0005:0005 0005 0003:0003 0003 0002 ! 0002 : 0002 0002 000210001 0009 0006 0004 0003 0002 0001 355
«1 1 см" ем" сч ei см ем oi ем ем ем м м та м eoW ч- 1Л 9Ц 5 sgSgSS S SS8 8S SSSS емеч 1м"емеч"ем"ем"ем*ем"ем*ем*ем"емемемем ечсм см еч K38S2HJ Г- Г- Г*- 00 30 00 С ем"ем"ем*емечечс<еме>Геме< ем емем ем оГем о> емем I i I 1 fCMO^CMOlOCO^ts.cg OlNtO^ f CO СЧ — t"" см сч см см см см" см'см см см см <м"сч* см OOCCOCOOOIC см см см см см см см" см — - ss to о F~ю_стсм.—— о qSoi o> ел S 4>*V« м см со eoeo « сз сч еч" ечI ем" еч" 1 s I I I I ^_ — COONtT^CO—OlNUJCO ts—4'0pQ<uC'fS"-ft05 00фСПС)ОО-"-"—1C4 О О О О ^ ^" "¦ ^ ^ «
t: j t) i i 0,99 0,975 0,95 0.05 g 0,01 : Число | степеней свободы * сма>1пою>1Пе«о><осоо OOQO^OO^CMCMCO^'in Scoo^-ootocoo» oicoeo—¦ qo со -*> сч o> i4* »л 0-C4«COtlO(DCONCO SS!888t389799 cNinao-^<toa>c4int-.o Sc?c«S^S^S5S!5 tO O) CO tOO CO to OCO tOO) соЗЗ^ззз^ззё I I is s o" n m n m m о о) со К r to «й 3 5 !h i» ю мим- oo см К S rt — о о) со К r- to flOcio CO oo SaOaoh-lOCD—COCOOOOCO^COCN — ОфСЛОО^ — t~ 1П •* « CO CN <N CN — — — — ioSO eJ ^reoeNoioicN еч'оГ el ем" oics" ci ei cnoi oi cn!cn^cn cm" eooieo-_< _ tdcN «"ечем"- a —ctnviuisNcoaa —gj 4 3 о. С: ю м <m oicV о о — — — — ooooooooo — — ooo o"o"o o"o"o о о о"о >Л со I-. оо oi о — So —SffieocNtooiBom — ФемЗ^оЗ ooo о" о* о*——ем" el ео'м ¦* ^"m" in" to t~ tC ddo do- -и«п« »ю hi a <on юоо do'do*—— 00OCOV3 — «o — - юсоонпсл eo^tdt^ooQ —ем" мемсчсчсчсчемЛмм 5OCNMM — СО1П —
о а о о 8 СП о 8 ~—юымннююююм as $ за a a =s а з s а сососососососоысоьососо S—"юсо toi'j» «jeo-©oo соы со ее со со со со со w со со р 8 Критические точки распределения F Фишера — Снедекора lkx — число степеней свободы большей диспсрсии\ \кг—число степеней свободы меньшей дисперсии J Приложение 7 \ *• * \ ** ''"'¦•, 1 2 3 4 5 6 7 8 9 10 II 12 13 14 15 16 17 > 4052 98.49 34,12 21,20 16,26 13,74 12,25 11,26 10.56 10,04 9,85 9,33 9,07 8.86 8,68 8,53 8.40 г 4999 99,01 30,81 18,00 13,27 10,92 9,55 8,65 8.02 7,56 7,20 6.93 6,70 6.51 6.36 6.23 6.11 3 5403 99.17 29.46 16.69 12,06 9,78 8,45 7,59 6.99 6,55 6,22 5,95 5,74 5,56 5,42 5,29 5.18 4 5625 99.25 28,71 15.98' П..39 9*15 7,85 7.01 6.42 5,99 5,67 5,41 5,20 5,03 4.89 4,77 4.67 Уровень значимости а 6 5764 99,33 28,24 15.52 10,97 8.75 7,46 6,63 6,06 5,64 5,32 5,06 4.86 4,69 4,56 4,44 4.34 6 5889 99.30 27,91 15,21 10,67 8,47 7,19 6,37 5,80 5.39 5,07 4,82 4,62 4.46 4.32 4,20 4.10 = 0.01 7 5928 99,34 27,67 14,98 10,45 8,26 7.00 6,19 5,62 5.21 4,88 4,65 4,44 4,28 4,14 4,03 3,93 8 5981 99,36 27,49 14,80 10,27 8.10 6,84 6,03 5.47 5.06 4,74 4,50 4.30 4,14 4,00 3,89 3.79 9 6022 99,36 27.34 14,66 10.15 7,98 6,71 5,91 5,35 4.95 4.63 4,39 4,19 4,03 3,89 3,78 3,68 10 6056 99,40 27,23 14,54 10,05 7,87 6,62 5,82 5,26 4,85 4,54 4,30 4,10 3,94 3,80 3.69 3,59 и 6082 99,41 27,13 14,45 9.96 7,79 6,54 5,74 5,18 4,78 4,46 4,22 4,02 3.86 3,73 3,61 3,52 12 6106 99,42 27,05 14,37 9,89 7,72 6,47 5,67 5,11 4,71 4.40 4,16 3,96 3,80 3,67 3,55 3.45
ОГЛАВЛЕНИЕ Предисловие 3 Введепне 4 Часть первая Случайные события Глава первая. Основные понятия теории вероятностей . , 7 § I Испытания и события . . . 7 § 2 Виды случайных событий .... . . 7 § 3 Классическое определение вероятности ... 8 § 4 Примеры непосредственного вычисления вероятно- вероятностей И § 5 Относительная частота Устойчивость отиоситель ной частоты . 12 $ 6 Ограниченность классического определения вероят иости. Статистическая вероятность ... 14 Задачи . . . 15 Глава вторая Теорема сложения вероятностей 17 $ I Теорема сложения вероятностей несовместных со- событий . 17 § 2 Полная группа событий 19 « 3 Противоположные события .... 20 $ 4 Принцип практической невозможности маловероят иых событий . 21 Задачи . . 22 Глава третья Теорема умножения вероятностей . 23 $ I. Независимые и вависимые события 23 $ 2 Теорема умножения вероятностей независимых со- событий 24 § 3 Вероятность появления хотя бы одного события 29 § 4 Условная вероятность ... 31 § б Теорема умножения вероятностей вавнсимых собы тий . . 32 Задачи .... 35 Глава четвертая Следствия теорем сложения и умножения 37 § I Теорема сложения вероятностей совместных собы тий . . 3/ § 2 Формула полной вероятности . . ... 39 $ 3 Вероятность гипотез Формулы Бейеса . , . 41 Задачи ... ... . ..... 43 Глава пятая Повторение испытаний 45 § I. Формула Бернулли 45 § 2 Локальная теорема'Лапласа ..... 47 § 3 Интегральная теорема Лапласа 49 § 4 Вероятность отклонения относительной частоты от постоянной вероятности в независимых испытаниях 52 Задачи 65 362 Часть втора Случайные величины Глава шестая. Виды случайных величин. Задание дискрет- дискретной случайной величины . 57 § I. Случайная величина . . 57 §2. Дискретные и непрерывные случайные величины . 58 § 3. Закон распределения вероятностей дискретной слу- случайной величины 58 $ 4. Биноминальное распределение ...... 60 § 5. Распределение Пуассона 61 § 6. Простейший поток событий 63 Задачи . 66 Глава седьмая. Математическое ожидание дискретной слу- случайной величины , . . 67 § I. Числовые характеристики дискретных случайных величин 67 $ 2. Математическое ожидание дискретной случайной величины 68 § 3. Вероятностный смысл математического ожидания 69 § 4. Свойства математического ожидания .... 70 § 5. Математическое ожидание числа появлений собы- события в независимых испытаниях 75 Задачя . . . 76 Глава восьмая. Дисперсия дискретной случайной величины 77 § 1 Целесообразность введения числовой характеристи- характеристики рассеяния случайной величины ..... 77 $ 2. Отклонение случайиой.величииы от ее математиче- математического ожидания 78 § 3. Дисперсия дискретной случайной величины 79 § 4. Формула для. вычисления дисперсии . 81 § 5. Свойстве дисперсии 82 § 6. Дисперсия числа появлений события в независи- независимых испытаниях . . ч ¦ 85 6 7. Среднее квадратическое отклонение . . . . 86 § 8. Среднее квадратическое отклонение суммы взаимно независимых случайных величии ... 87 § 9. Одинаково распределенные взаимно независимые случайные величины ... 88 $ 10 Понятие о моментах распределения ... 91 Задачи 93 Глава девятая. Закон больших чисел 94 § I. Предварительные замечания 94 § 2. Неравенство Чебышева . 94 § 3. Теорема Чебышева ... 97 § 4. Сущность т»оремы Чебышева 100 § 5. Значение теоремы Чебышева для практики . . 101 § 6. Теорема Бернуллн . . 102 Задачи .... 104 363
Глава десятая. Интегральная функция распределения веро- вероятностей случайной величины 105 § 1. Определение интегральной функции распределения 105 § 2. Свойства интегральной функции ... 106 § 3. График интегральной функции 108 Задачи НО Глава одиннадцатая. Дифференциальная функция распреде- распределения вероятностей непрерывной слу- случайной величины . Ill § 1. Определение дифференциальной функции распреде- распределении Ill § 2. Вероятность попадания непрерывной случайной ве- величины в заданный интервал Ill § 3. Нахождение интегральной функции распределения по известной дифференциальной функции . . 113 § 4. Свойства дифференциальной функции .... 114 § 5. Вероятностный смысл дифференциальной функции 116 § 6. Закон равномерного распределения вероятностей 118 Задачи .119 Глава двенадцатая Нормальное распределение . . 121 § 1. Числовые характеристики непрерывных случайных величин 121 § 2. Нормальное распределение 123 § 3. Нормальная кривая 126 § 4. Влияние параметров нормального распределения на форму нормальной кривой 127 § 5. Вероятность попадания в заданный интервал нор- нормальной случайной величины 128 § 6. Вычисление вероятности заданного отклонения 130 § 7. Правило трех сигм 131 § 8. Понятие о теореме Ляпунова ... . . 132 § 9. Оценка отклонения теоретического распределения от нормального. Асимметрия и эксцесс .... 133 § 10. Функции одного случайного аргумента и ее рас- распределение 133 § 11. Математическое ожидание функции одного случай- случайного аргумента 137 $ 12. Функция двух случайных аргументов. Распреде- Распределение суммы независимых слагаемых. Устойчи- Устойчивость нормального распределения 139 § 13. Распределение X* ... . ... 142 § 14. Распределение Стьюдента 143 § 15. Распределение F Фишера — Снедекора ... 143 Задачи 144 Глава тринадцатая. Показательное распределение . 146 § 1. Определение показательного распределения . . 146 § 2. Вероятность попадания в заданный ннтерпал по- показательно распределенной случайной величины 147 364 § 3. Чис ловые характеристики показательного распре- распределения 148 § 4. Функция надежности 150 § 5. Показательный закон надежности 150 § 6. Характеристическое свойство показательного зако- закона надежности 151 Задачи . . 153 Глава четырнадцатая. Система двух случайных величин 153 § 1 Понятие о системе нескольких случайных величин 153 § 2. Закон распределения вероятностей дискретной дву- двумерной случайной величины 154 § 3. Интегральная функция распределения двумерной случайной величины 156 § 4 Свойства интегральной функции двумерной случай- случайной величины 157 $ 5. Вероятность попадания случайной точки в полу- полуполосу 159 $ 6. Вероятность попадания случайной точки в прямо- прямоугольник 160 § 7 Дифференциальная функция непрерывной двумер- двумерной .случайной величины (двумерная плотность ве- вероятности) 161 § 8. Нахождение интегральной функции распределения по известной дифференциальной функции ... 162 § 9 Вероятностный смысл дифференциальной функции двумерной случайной величины 163 § 10 Вероятность попадания случайной точки в произ- произвольную область 164 $ 11 Свойства дифференциальной функции двумерной случайной величины 166 § 12. Отыскание дифференциальных функций составля- составляющих двумерной случайной величины ... 167 § 13 Условные законы .распределения составляющих системы дискретных случайных величин ... 169 § 14. Условные законы распределения составляющих системы непрерывных случайных величин 172 § 15. Условное математическое ожидание ... 174 §16. Зависимые н независимые случайные величины . 175 § 17 Числовые характеристики системы двух случай- случайных величин. Корреляционный момент. Коэффи- Коэффициент корреляции 177 § 18. Коррелированное™ и зависимость случайных ве- величин 179 § 19 Нормальный аакон распределения на плоскости 181 Задачи . 182 Часть третья Элементы математической статистики Глава пятнадцатая Выборочный метод § 1. Задача математической статистики § 2. Краткая историческая справка 5 3. Генеральная я выборочная совокупности . 185 185 1Я5 I8C т>
§ 4 Повторная и бесповторная выборки Репрезента- Репрезентативная выборка ... 187 § 5. Способы отбора 187 § 6 Статистическое распределение выборки ... 189 § 7. Эмпирическая функция распределения . , , 190 § 8 Полигон и гистограмма 193 Задачи ... 195 Глаза шестнадцатая. Статистические оценки параметров распределеиня ...... 196 § I. Статистические оценки параметров распределения 196 §2 Несмещенные, эффективные и состоятельные оценки 197 § 3 Генеральная средняя 198 § 4. Выборочная средняя 199 § 5 Оценка генеральной средней по выборочной сред- средней. Устойчивость выборочных средних . . 200 $ 6 Групповая и общая средние 202 7 Отклонение от общей средней и его свойство . . 203 8. Генеральная дисперсия . , , 204 9. Выборочная дисперсия . . 206 10 Формула для вычисления дисперсии .... 207 11 Групповая, внутригрупповая межгрупповая и об- тая дисперсии . . 208 § 12 Сложение дисперсий ... . 211 § 13 Оценка генеральной дисперсии по исправленной выборочной .... .... . . 213 § 14 Точность оценки, доверительная вероятность (на- (надежность). Доверительный интервал ... 214 § 15 Доверительные интервалы для оценки математи- математического ожидания нормального распределения при известном а . . 216 § 16 Доверительные интервалы для оценки математи- математического ожидания нормального распределения при неизвестном з . . . 2Н) 17 Оценка истинного значения измеряемой величины 223 18 Доверительные интервалы для оценки среднего квадратического отклонения а нормального рас- распределения . . . 223 19 Оценки точности измерений 227 20 Другие характеристики вариационного ряда 228 Задачи 230 Глава семнадцатая. Методы расчета сводных характе рнстик выборки 231 1 Условные варианты 231 2 Обычные начальные и центральные эмпирические моменты . 233 $ 8 Условные «мпирические моменты Отыскание цен тральных моментов по условным 234 $ 4 Метод произведений вычисления выборочных сред неб и ансперсин 235 § 5 Сведение первоначальных вариант к равнеотстоя шим 239 § 6. Эмпирические и выравнивающие (теоретические) частоты ¦ • ¦ 240 § 7. Построение нормальной кривой по опытным дан- данным .... - ¦ 245 $ 8. Оценка отклонения эмпирического распределения от нормального. Асимметрия и эксцесс ... 246 За/лчн ... . . 249 Глава восемнадцатая. Элементы теории корреляции . . § 1. Функциональная, статистическая и корреляцион- корреляционная зависимости 24.9 § 2. Условные средние. Корреляционная зависимость 2о0 § 3. Две основные задачи теории корреляции . . . 251 § 4. Отыскание параметров выборочного уравнения пря- прямой линии регрессии по несгруппированным дан- данным 252 § 5. Корреляционная таблица 2э5 § 6. Отыскание параметров выборочного уравнения пря- прямой линии регрессии по сгруппированным данным. Выборочный коэффицг.еит корреляции .... 2оС § 7. Свойства выборочного коэффициента корреляции 259 $ 8. Метод четырех полей вычисления выборочного коэф- коэффициента корреляции ......... 261 § 9. Пример иа отыскание выборочного уравнения пря- прямой линии регрессии 267 § 10. Предварительные соображения к введению меры любой корреляционной связи 269 § П. Выборочное корреляционное отношение ... 271 § 12. Свойства выборочного корреляционного отноше- отношения 273 $ 13. Корреляционное отношение как мера корреля- корреляционной связи. Достоинства и недостатки этой меры 276 $ 14. Простейшие случаи криволинейной корреляции 276 S 15. Понятие о множественной корреляции . . . 279 Задачи 280 Глава девятнадцатая. Статистическая проверка статистиче- статистических гипотез § 1. Статистическая гипотеза. Нулевая и конкурирую- конкурирующая, простая н сложная гипотезы 282 $ 2. Ошибки первого и второго ряда 283 § 3. Статистический критерий проверки нулевой гипо- гипотезы. Наблюдаемое значение критерия .... 284 § 4. Критическая область. Область принятия гипотезы. Критические точки 2Н5 § 5. Отыскание правосторонней критической области . 28Г> § 6. Отыскание левосторонней и двустороннем критиче- критических областей И*# § 7" Дополнительные сведения о выборе крнгнчсскоП области. Мощность критерия . . ... 289 § 8. Сравнение двух дисперсий нормальных генераль- генеральных совокупностей . 2У0 § 9. Сраимениt исправленной выборочном дпепс рсип с
гипотетической генеральной дисперсией нормаль- нормальной совокупности 296 § 10. Сравнение двух средних нормальных генеральных совокупностей, дисперсии которых известны (не- (независимые выборки) 301 § 11. Сравнение двух средних произвольно распреде- распределенных генеральных совокупностей (большие не- независимые выборки) 308 § 12. Сравнение двух средних нормальных генеральных совокупностей, дисперсии которых неизвестны и одинаковы (малые независимые выборки) . . 310 § 13. Сравнение выборочной средней с гипотетической генеральной средней нормальной совокупности . 314 § 14. Связь между двусторонней критической областью ^ и доверительным интервалом 318 § 15. Определение минимального объема выборки при сравнении выборочной и гипотетической генераль- генеральной средних 319 § 16. Пример на отыскание мощности критерия . . 320 § 17. Сравнение двух средних нормальных генеральных совокупностей с неизвестными дисперсиями (за- (зависимые выборки) 32) § 18. Сравнение наблюдаемой относительной частоты с гипотетической вероятностью появления события 324 § 19. Сравнение нескольких дисперсий нормальных ге- генеральных совокупностей по выборкам различного объема. Критерий Барт лета 326 § 20. Сравнение нескольких дисперсий нормальных ге- генеральных совокупностей по выборкам одинаково- одинакового объема. Критерий Кочрена 330 § 21. Проверка гипотезы о значимости выборочного ко- коэффициента корреляции 332 § 22. Проверка гипотезы о нормальном распределении генеральной совокупности. Критерий согласия Пирсона 334 § 23. Методика вычисления теоретических частот нор- нормального распределения 338 Задачи . . . 341 Глава двадцатая. Однофакторный дисперсионный анализ § 1. Сравнение нескольких средних. Понятие о диспер- дисперсионном анализе 343 § 2. Общая, факторная и остаточная сумма квадратов отклонений 345 § 3. Связь между общей, факторной н остаточной сум- суммами 349 § 4. Общая, факторная и остаточная дисперсии . . 350 § 5. Сравнение нескольких средних методом диспер- дисперсионного анализа 351 Задачи 354 Приложения 355