Автор: Гмурман В.Е.
Теги: теория вероятностей и математическая статистика теория вероятностей математическая статистика комбинаторный анализ теория графов математика статистика учебное пособие
ISBN: 5-06-003464-Х
Год: 1999
В.Е.Гмурман Теория " вероятпостеи и математическая статистика ИЗДАНИЕ СЕДЬМОЕ, СТЕРЕОТИПНОЕ Рекомендовано Министерством общего и профессионального образования Российской Федерации в качестве учебного пособия. для студентов в узов Москва "Высшая школа" 1999
УДК 519.2 ББК 22.171 г55 Гмурман В. Е. Г55 Теория вероятностей и математическая статистика. Учеб. пособие для вузов. Изд. 7 -е, стер.-М.: Высш. шк., 1999. - 479 с.: ИJI. ISBN 5-06-003464 -Х Книга (6-е изд.- 1998 г.) содержиr в основном весь материал программы по теории вероятностей и математической статистике. Большое внимание уделено статистическим методам обработки экспериментальных данных. В конце каждой главы помещены задачи с ответами. Предназначается для студентов вузов и лиц, использующих вероятнос тные и статистические методы при решении практических задач. ISBN 5-06-003464-Х © Издательство «Высшая школа», 1999
ОГЛАВЛЕНИЕ Введение............................................................. ·········'·······················•····· 14 ЧАСТЬ ПЕРВАЯ СЛУЧАЙНЫЕ СОБЫТИЯ Глава первая. Осиовиwе DOИJmUI теории 11epo.tm1ocтdi.................... ... 17 §1. Испытания и события............................................................... 17 §2.Видыслучайныхсобытий...... ................................................... 17 § 3. Классическое определение вероятности ........... .. . .. .. .. . ... .. .. .. .. . 18 § 4. Основные формулы комбинаторики............................ ... . .. .. .. . 22 § 5. Примеры непосредственного вычисления вероятностей. ... .. 23 § 6. Относиrельная частота. УстойЧивость относительной часто- ты........................................................................................................ 24 § 7. Ограниченность клас с ического определения вероятности. , Статистическаявероятность............................................................ 26 § 8. Геометрические вероятности.............. .. .. .. . .. .. .. .. .. .. .. . .. .. .. .. .. .. . .. . 27 Задачи................................................................................................. 30 Глава вторая. Теорема сложении 11epo.tm1ocтei ......•... ......• ...... ....... ... 31 § 1. Теорема сложения вероятностей несовместных событий.. .. . 31 § 2. Полная груп па событий......... ................................................... 33 §3.ПротивополоЖНЪiесобытия...................................................... 34 § 4. Принцип практической невозможности маловероятных событий.............................................................................................. 35 Задачи................................................................................................. 36 Глава третЬя. Теорема умиожеНИJ1 11epo.tm1ocтei.."..... .... .. .. .. .... ....... . 37 § 1. Произведение событий.................................. .. .. .. .. . .. .. .. . .. .. .. . .. .. . 37 3
§2.Условная вероятность................................................................ 37 §3.Теоремаумножениявероятностей........................................... 38 § 4. Независимые события. Теорема умножения для независимых событий...............................................................................:.............. 40 § 5. Вероятность появления хотя бы одного события...... . .. .. . .. . .. .. 44 Задачи.......... ....................................................................................... 47 Глава четвертая. CпeдC'l'l llUI теоремCJ J OJUll lUI в умвоже11 1U1 • •••• •••• •••• • 48 § 1. Теорема сложения вероятностей совместных событий... . .. .. . 48 §2.Формула полной вероятности.................................................. 50 §3. Вероятностьгипотез. Формулы Бейеса................................... 52 Задачи................................................................................................. 53 Глава пятая. Повторение нспыrан нй ••• •••• •••• •••• •••• •••• •••• •••• •••• •••. •••• •••• • 55 §1.ФормулаБернулли............................................"....................... 55 §2.ЛокальнаятеоремаЛапласа.......................... :........................... 57 §3.Интегральная теоремаЛапласа.............................. .................. 59 § 4. Вероятность отклонения относительной частоты от постоян- нойвероятности в независимых испытаниях................................ 61 Задачи................................................................................................. 63 ЧАСfЬ ВТОРАЯ СЛУЧАЙНЫЕ ВЕЛИЧИНЫ Глава шестая. Виды спуча1ны х JleJl llЧl ll l .Задан н е дискретной случай- ной вeJ JJf'l llВW •• •••• ••• •••• •••• •••• •••• •••• •••• ••••• ••• •••• •••• •••• •••• •••• •••• •••• •••• •••• •••• • 64 §1.Случайнаявеличина................................................................" 64 § 2. Дискретные и непрерывные случайные величины.. .. . . .. .. . .. . .. 65 § 3. Закон распределения вероятностей дискретной случайной величины............................................................................................ 65 §4.Биномиальное распределение................................................... 66 §5.РаспределениеПуассона........................................................... 68 § 6. Простейший поток событий........." .."..""". ". . .. . ."". "" . .. . ." .. ." 69 §7.Геометрическое распределение.............................."................ 72 §8.Гипергеометрическое распределение....................................... 73 Задачи................................................................................................. 74 Глава седьмая. Математическое ОJl[НДаННе днскретноl случайной веJ1 11Ч1 11 1Ы • •"• ••• •" "•• •••• "• •••• •••• •••• •••• •"• •••• •••• •••" ••• •••• •••• •••• •••�. ... .... ... ... 75 4 § 1. Числовые хара�сrеристики дискретных случайных величин. 75 § 2. Математическое ожидание дискретной случайной величины 76 § 3. Вероятностный смысл математического ожидания............... 77
§4.Свойства математического ожидания...................................... § 5. Математическое ожидание числа появлений события в независимыхиспыrаниях...........................................................····.· Зацачи................................................................................................. Глава восьмая. Дисперсия дискретной случайной велвчв вы ..........".... § 1. Целесообразность введения числовой харак:rеристики рассе- янияслучайнойвеличины............................................................... § 2. Оrклонение случайной величины от ее математического ожидания............................................................................................ §3. Дисперсия дискретной случайной величины......................... §4.Формуладля вычисления дисперсии....................................... §5.Свойствадисперсии................................................................... § 6. Дисперсия числа появлений события в независимых испы- таниях................................................................................................. §7.Среднее квацратическоеотклонение....................................... § 8. Среднее квацратическое отклонение суммы взаимно независимых случайных величин.................................................... §9. Одинаково распределенные взаимно независимые случайные величины............................................................................................ § 10. Начальные и центральные теоретические моменты. . .. .. . .. . .. Зацачи................................................................................................. Глава девятая. Закон болыпвх чисел ................................................ §1.Предварительныезамечания..................................................... §2.НеравенствоЧебышева............................................................. §3.ТеоремаЧебышева..................................................................... §4.Су�цностьтеоремыЧебышева.................................................. §5.Значение теоремыЧебышевадля практики........................... §6.ТеоремаБернулли...................................................................... Зацачи..............................................................: .................................. Глава десятая. Функция распределения вероJ1 11 1 остей случайной 78 83 84 85 85 86 87 89 90 92 94 95 95 98 100 101 101 101 103 106 107 108 110 веJ1 11ЧИ1 1Ь1 • ••••• •••• •••• •••• •••• •••• •••• ••••• •••• •••• •••• • •••• •••• ••• ••••• ••••• ••• •••• •••• • •• •• • •• 111 §1.Определение функциираспределения..................................... 111 §2.Свойствафункциираспределения........................................... 112 §3.Графикфункциираспределения.............................................. 114 Зацачи................................................................................................. 115 Глава одиннадцатая. ПлО1 11 осп. распределеиия веро1П1 1 остей непре- рwввой случайной велвчв вы ............................................................ 116 §1.Определение плотности распределения.................................. 116 § 2. Вероятность попацания непрерывной случайной величины в зацанный интервал........•/;''····························································· 116 5
§ 3. НахоQение функциираспределения по иэвесrной плотности распределения.................................................................................... 118 §4.Свойстваплотности распределения......................................... 119 § 5. Вероятностный смысл плотности распределения .................. 121 § 6. Закон равномерного распределения вероятностей ....... . .. .. . .. . 122 Зццачи................................................................................................. 124 Глава двенадцатая. Норма! !N!ОР pacupeдe JИ'l ll le . ..... ..... ..... ..... ..... ..... .. 124 § 1. Числовые хараперистики непрерывных случайных величин 124 § 2. Нормальное распределение....................................................... 127 § 3. Нормальная кривая.................................................................... 130 § 4. Влияние параметров нормального распределения на форму нормальной кр ивой............................................... ... . .. . .. . .. .. . .. .. . .. . ... .. · 131 § 5. Вероятность попццания в заданный икrервал нормальной случайной величины..........................................................:. .. .. .. .. .. . .. 132 § 6. Вычисление вероятносrи задаНного отклонения ................... 133 §7.Правилотрехсигм..................................................................... 134 § 8. Понятие о теореме Ляпунова. Формулировка ценrральной предельнойтеоремы.......................................................................... 135 § 9. Оценка отклонения теоретического распределения от нор- мального.Асимметрия иэксцесс.................................................... 137 § 10. Функция одного случайного арrуменrа и ее распределение 139 § 11. Математическое ожидание функции одного случайного арrуменrа...............................................................................·-·········· 141 § 12. Функция двух случайных арrуменrов. Распределение суммы независимых слагаемых. Усrойчивосrь нормального распреде- ления................................................................................................... 143 § 13. Распределение «ХН квадраТ»...................................... .. . .. . .. .. .. .. 145 §14.РаспределениеСтьюдента....................................................... 146 § 15. Распределение FФишера -Снедекора.......... .. .. . .. .. . .. .. .. .. .. . . 147 Зццачи................................................................................................. 147 Глава тринадцатая. Пouзaтe.Jlbl l oe распределение.............. ...... ... .... 149 § 1. Определение показательного распределения.......................... 149 § 2. Вероятносrь попадания в заданный интервал показательно распределенной случайной величины .......... ........ .......................... 150 § 3. Числовые характеристики показательного распределения.. .. 151 § 4. Функция надежносrи ................................................... · ............. 152 §5.Показательный законнадежности........................................... 153 § 6. Характеристическое свойство показательного закона надеж- ности.......................................................................... ........................ 154 Зццачи................................................................................................. 155 Глава четырнадцатая. Система .uyx случаi iиwх вeJDIЧl ll l ... ...... .... .... .. 155 6 § 1. Понятие о системе нескольких случайных величин.............. 155
§ 2. Закон распреде.1ения вероятностей дискретной двумерной случайнойвеличины................................................................."..... . 156 § 3. Функция распределения двумерной случайной величины . . . 158 § 4. Свойства функции распределения двумерной случайной величины..".."...."........"........"..""......"."...".. ""......".... "".."...."".. 159 § 5. Вероятность попадания случайной точки в полуполосу .." .. . 161 § 6. Вероятность попадания случайной точки в прямоуrольник. 162 § 7. Плотность совместного распределения вероятностей непре рывной двумерной случайной величины (двумерная плотность вероятности)".... ..".............."...."....""......"""....".".....".."....""...... 163 § 8. Нахождение функции распределения системы по известной плотностираспределения...".........."..........""""""".."...."..""....".. 163 § 9. Вероятностный смысл двумерной плотности вероятности... 164 § 10. Вероятность попадания случайной точки в произвольную область..".... ".......... "... "................... ""..".."""..................."."."...".. 165 § 11. Свойства двумерной плотности вероятности.."...". .. . "" " "" . 167 § 12. Оrыскание плотностей вероятности составляющих двумер- ной случайной величины....""...".."..."..........."""..............".......... 168 § 13. Условные законы распределения составляющих системы дискретных случайных величин..."."....".."""".".."..".."...."...".." 169 § 14. Условные законы распределения составляющих системы непрерывных случайных величин ."" "".. .. ". .. " . .. .. .. ." """. . .. "." "" .. 171 § 15. Условное математическое ожидание ...... ..""".. " " . . ".. "" " "".. 173 § 16. Зависимые и независимые случайные величины"..".. " ." ".. 174 § 17. Числовые характеристики систем двух случайных величин. Корреляционный момент. Коэффициент корреляции.""..". ". " .. 176 § 18. Коррелмрованность и зависимость случайных величин".". 179 § 19. Нормальный закон распределения на плоскости.".""".""" 181 § 20. Линейная реrрессия. Прямые линии среднеквадратической реrрессии".."...."..".."""".."........."."".."" .. "...."..."".."......•".."".... 182 § 21. Линейная корреляция. Нормальная корреляция.. .. . .. ." . "". . . 184 Задачи................................................."........................".................... 185 ЧАСТЬ ТРЕТЬЯ ЭЛЕМЕIПЫ МАТЕМАТИЧЕСКОЙ СТАТИСТИКИ Глава пятнадцатая. ВыборОчвый метод •••••••" •••• ••••" •••• ••••• •••"... ..... .. 187 §1.Задачиматематической статистики........".............."............". 187 §2.Краткаяисторическая справка"........................"..................". 188 § 3. Генеральная и выборочная совокупности......... ... . .. . ." .. "". "". 188 § 4. Повторная и бесповторная выборки. Репрезентативная вы- борка......... .................."................................................................".... 189 7
§ 5. Способы отбор:1....... .. .. . .. . ............................... .......... .............. 190 §6.Статистическоераспредедениевыборки.. ..................... . .. ... 192 § 7 Эмпирическая функция распределения ........... . .... . .. .... .. 192 § 8. Полигон и гистограмма.. ..... .............. .. .............. ................. 194 Задачи .. . . .. . .... ............................ . ... ... ............. .... .......... 1% Глава шестнадцатая. Ста11 1 стичесuе оцеп:и параметроа pacopeдe- Мl lJIJI ••••••••••••••••••••••••••••••••••••••••••••••••••••••••••••••••••••••••••••••••••••••••• .•••• 1�7 § 1. Статистические оценки параметров распределения ... . 197 § 2 Несмещенные, эф фе ктивные и состоятельные оценки.. . 198 § 3. Генеральная средняя........ .. . .. .. ............ . 19<J § 4. Выборочная средняя........................ .. .. .. .. .. .. .. ...................... ... 200 § 5. Оценка генеральной средней по выборочной средней Ус- тойчивостьвыоорочныхсредних............................ ..... .. ············· 201 § 6. Гру11по11ая и общая средние.... . .... . .................. 203 § 7. Отклонение от общей средней и ею соой<.'ТВО . . ...... . ......... 204 § 8. Генеральная !IИсперсия ...... . ...... ..... ..... . 205 §9.Выборочнаязисnерсия.................... ....................... ............ .. 206 § 10. Формула для вычисления диспс.рсии.............. .... . .. .. ... . . . . 207 § 11. Групповая, внутригрупповая. межrрупповая и общая дисперсш1............... .... ......................... ........ ...... ....... .... ...... 207 § 12. Сложение дисперсий ............ .......... ... ... . . . . .. . ... .......... ...... 21О § 13. Оценка генеральной дисперсии по испра1t'!енной выбороч- ной.......................................... ................. .. ...... ........... .............. .... 211 § 14. Точность 011енки, доверительная вероятность (надежнос ' Ть). Доверительный интервал................ ........... ....................... ............ 213 § 15. Доверительные икrервалы ддя оценки математического о:жидания нормального распределения при известном а ... . . ...... 214 § 16. Доверительные икrериалы для оценки математического ожиnания нормального распределения при неизвесrном а . ... 216 § 17. Оценка истинного значения измеряемой величины......... .. 219 § 18. Доверительные интервалы для оценки среднего кв:щ- ратическоrо отклонения (J нормального р;;спре.аеления. ..._. ... . .. . . 220 §19.Оценкаточностиизмерений.................. ....................... ........ 223 § 20. Оценка вероятности (биномиальною распределения) по относительной частоте............... ... . .. .. .. .. . .. .. . . .. ................... . ....... 1- 224 § 21. Метод моментов для точечной оценки параметров распре- деления ................................................................... . .. .. .. .. . .. .. .. .. .. . .. .. . 226 §22.Методнаибольшегопрамоподобия..... ................................ 229 § 23. Другие характеристики вариационного ряда ............. .... . . . . .. 234 Задачи.......... ...................................................................................... 2j5 Глава семнадцатая. Meтo./Uol раечета ево.АВWХ харапернст п awбopu 237 8 § 1. Условные варианты................................................................... 237
§ 2. Обычные, начальные и ценrральные эмпирические моменты 238 § 3. Условные эмпирические моменты. Оrыскание ценrральных момеиrов по условным................................ . .. .. . ... . .. .. .. .. .. . .. . .. .. .. .. .. .. . 239 § 4. Метод произведений для вычисления выборочных средней и дисперсии ..................................... .. .. . .. .. .. . .. .. .. .. . .. .. .. . .. .. .. . .. . .. .. . .. .. .. . 241 § 5. Сведение первоначальных вариаиrов к равнооrстоящим. .. . . 243 § 6. Эмпирические и выравнивающие (теоретические) частоты. 245 § 7. Построение нормальной кривой по опьrrным данным.. . .. . .. . 249 § 8. Оценка отклонения эмпирического распределения от нор- мального. АсимметрJ>!Я и эксцесс.................................................... 250 Задачи................................................................................................. 252 Глава восемнадцатая. ЭлемеlП'Ы теори и корреляци и . ..... .... ...... ...... .... 253 § 1. Функциональная, статистическая и корреляционная зависимости............................................................. ,.. .. . .. .. .. . .. .. .. . .. .. . . 253 § 2. Условные средние............................. .. . .. .. . .. .. . .. .. .. .. . .. .. . .. .. . .. . .. .. .. 254 § 3. Выборочные уравнения регрессии........................................... 254 § 4. Отыскание параметров выборочного уравнения прямой линии среднеквадратичной регрессии по несrруппированным данным .................................."...................... ".................................. 255 § 5. Корреляционная таблица...... "..........................."......"............. 257 § 6. Отыскание параметров выборочного уравнения прямой линии регрессии по сгруппированным данным.. . ......................... 259 § 7. Выборочный коэф ф ициент корреляции ... ".....".".................. 261 § 8. Методика вычисления выборочного коэф ф ициента корре- ляции ····························· ···································································· 262 § 9 Пример на отыскание выборочного уравнения прямой линии регрессии.......... ................................................................. .. . .. .. .. .. . .. .. 267 § !О. Предварительные соображения к введению меры любой корреляционной связи...................................................................... 268 § 11. Выборочное корреляционное отношение ..... .... .. . .. .. . .. .. . .. .. . .. 270 § 12. Свойства выборо•1ного корреляционного отношения ......... 272 § 13. Корреляционное отношение как мера корреляционной связи.Достоинстваинедостаткиэтоймеры................................. 274 § 14. Простейшие случаи криволинейной корреляции ................ 275 § 15. Понятие о множественной корреляции ........................ . ... . .. . 276 Задачи....................................... .................................................... 278 Глава девятнадцатая. Статистическая проверка статистических rипотез ..... ............. .. . .... .... . ......................... ..... . 281 § 1 Статисти•1еск:�я rип01еза. Нулевая и конкурирующая, прос- тан и сложная гипотезы.... ............................................................... 281 §2.Ошибки первого ивторогорода........... ... .... .... ............... . .... 282 § 3 Статистический критерий проверки нулевой гипотезы. На- блюда1:мое значение критерия......................... ... ........................... 283 9
§ 4. Критическая область. Область принятия гипотезы. Критиt�:ескиеточки..................."..................."............"................... 284 § 5. Отыскание правосторонней критической области... . .. .. . .. . .. .. . 285 § 6. Отыскание левосторонней и двусторонней критических областей.............................................................................................. 286 § 7. Дополнительные сведения о выборе критической области. Мощностькритерия........"............".................................................. 287 § 8. Сравнение двух дисперсий нормальных генеральных сово- _купностей........."....".................."......................................".............. 288 § 9. Сравнение исправленной выборочной дисперсии с гипотетической генеральной дисперсией нормальной совокуп- ности........."".."......."..........."......................".."..."........................... 293 § 10. Сравнение двух средних нормальных генеральных совокуп- ностей, дисперсии которых известны (независимые выборки)... 297 § 11. Сравнение двух средних произвольно распределенных ге- неральных совокупностей (большие независимые выборки).. .. .. . 303 § 12. Сравнение двух средних нормальных генеральных совокуп ностей, дисперсии которых неизвестны и одинаковы (малые независимые выборки) ."..."................................."....".................... 305 § 13. Сравнение выборочной средней с гипотетической генераль- нойсреднейнормальнойсовокупности.............."...................".... 308 § 14. Связь меж.цу двусторонней критической областью и доверительныминтервалом".."........"........"".................................. 312 § 15. Определение минимального объема выборки при сравнении выборочной и гипотетической генеральной средних................... . 313 §16. Пример наотыскание мощности критерия.......................... 313 § 17. Сравнение двух средних нормальных генеральных совокуп- ностей с неизвестными дисперсиями (зависимые выборки).... .. . 314 § 18. Сравнение наблюдаемой относительной частоты с гипотетической вероятностью появления события..""."."".. " ." " 317 § 19. Сравнение двух вероятностей биномиальных распределений 319 § 20. Сравнение нескольких дисперсий нормальных генеральных совокупностей по выборкам различного обьема. Критерий Бар- тлетта"....".."..".."............""............................................"......""".... 322 § 21. Сравнение нескольких дисперсий нормальных генеральных совокупностей по выборкам одинакового объема. Критерий Коч- рена......................"."""..".............:··················".."....................... .... 325 § 22. Проверка гипотезы в значимости выборочного коэф ф ициентакорреляции.. "."........................".."... "....""..". ".." 327 § 23. Проверка гипотезы о нормальном распределении генераль- . ной совокупности. Критерий согласия Пирсона "".."....."..".. " ". 329 § 24. Методика вычисления теоретических частот нормального распределения.."...."....""........ "...."..".... "".......... """""................ " 333 § 25. Выборочный коэф ф ициент ранговой корреляции Спирмена и проверка гипотезы о его значимости ".."""""" """"""."""""". 335 10
§ 26. Выборочный коэф ф иuиент ранговой корреляuии Кендал л а и проверкагипотезыоегозначимости····-·········-······-···················· 341 § 27. Критерий Вилкоксона и проверка mпотезы об однород- ностидвухвыборок........................................................................... 343 Задачи·---··-···--····-·--·······-··············-··-· -· · ·- -· ·· · ·· -· ·· · ·· ·· ·· · ·· ·· ·· · ·· ·· ·· ·· · ·- - -- -· -- · 346 Глава двадцатая. 0.lUloфaпopнw ii дисперсионвwi аиализ ••.•••••••.•••... 349 § 1. Сравнение нескольких средних. Понятие о дисперсионном анализе............................................................................................... 349 § 2. Общая, факторная и остаточная суммы квацратов откло- нений································-················-················································ 350 § 3. Связь между общей, факторной и остаточной суммами·---··· 354 § 4. Общая, факторная и остаточная дисперсии-··--·················-···· 355 § 5. Сравнение нескольких средних методом дисперсионного анализа··········-············-·······-···························································-··· 355 § 6. Неодинаковое число испьrrаний на различных уровнях....... 358 Задачи................................................................................................. 361 ЧАСТЬ ЧЕТВЕРТАЯ МЕТОД МОНТЕ-КАРЛО . ЦЕПИ МАРКОВА Глава двадцать первая. Моделировавие (рuwrрываиие) СJl)'Чайных JleJl ll ll ll ll методом Moir re - Кapлo •••••.•••••••••..•.•.•••••••"•.•••••••••••"........... 363 §1.Предметметода Монте-Карло.................................................. 363 § 2. Оценка погрешности метода Монте-Карло............ ................ 364 §3.Случайныечисла........................................................................ 366 § 4. Разыгрывание дискретной случайной величины ................... 366 § 5. Разыгрывание противоположных собьrrий............................. 368 § 6. Разыгрывание полной группы событий··············-···--······--····-· 369 § 7. Разыгрывание непрерывной случайной величины. Метод обратных функuий·····················---····-·-······-·-···-··-························-···· 371 § 8. Метод суперпозиuии···························--·····-··-·-·-·········-····---····-- 375 § 9. Приближенное разыгрывание нормальной случайной величины.....................·--····-·········-·-··--··-···-···-·--··--················-············ 377 Задачи··-···-····--·----·---··--·-·-·--····----·········--· ········-···---·····-····--··-·····-·-·-··· 379 Глава двадцать вторая. Первоначальные сведении о цепях Маркова . 380 § 1. Цепь Маркова ···············-···········-·--·-··-··-···-·······--···-···················· 380 § 2. Однородная цепь Маркова. Переходные вероятности . Матрица перехода·-····-·······-···········--··-··---·······-········--················ -·-··· 381 §. Равенство Маркова .. ·-------------------·- _______-- · ·· ·-·····-·--·······- ..... 383 Задачи···············--···-· -· -· · -· -· ·- ·· · -·· · ·· -· -- -- - -- - -- ·- _______--·--·--·-----------·-·----····- 385 11
ЧАСГЬ ПЯТАЯ СЛУЧАЙНЫЕ ФУНКЦИИ Глава двадцать третья. Случайные фующви .•..........••.•...•.•............•. 386 §1.Основныезадачи........................................................................ 386 § 2. Определение случайной функции.".."..""..".".."........"""""" 386 § 3. Корреляционная теория случайных функций "....".."."....."" 388 § 4. Математическое ожидание случайной функции ..."..........."" 390 § 5. Свойства математического ожидания случайной функции " 390 §6.Дисперсияслучайнойфункции......""......"."""""."..""..".."" 391 § 7. Свойства дисперсии случайной функции.. . .. . " .. .. ... .. ". .. .. . ". ". 392 § 8. Целесообразность введения корреляционной функции...." .. 393 § 9. Корреляционная функция случайной функции".. ". . ." ." .. ." " 394 § 10. Свойства корреляционной функции......... . .. .. .. . . ". ". . ." .. ". .. .. . 395 § 11. Нормированная корреляционная функция. .. .. """" . ." .. .. . ." .. 398 § 12. Взаимная корреляционная функция.. .. ". "". "". ."" """ .. ". ." .. 399 § 13. Свойства взаимной корреляционной функции..."............". 400 § 14. Нормированная взаимная корреляционная функция.. ". ." .. 401 § 15. Характеристики суммы случайных функций ......"....."""."" 402 § 16. Производная случайной функции и ее характеристики...... 405 § 17. Интеграл от случайной функции и его характеристики"" " 409 § 18. Комплексные случайные величины и их числовые харак- теристики.........................".."...".."."...."""""""..""".."..".............. 413 § 19. Комплексные случайные функции и их характеристики. . .. 415 Задачи".................".....".......".."..............".."...."..""..".."..".."."."" 417 Глава двадцать четвертая. Стационарные случайные фушщви..•...•". 419 § 1. Определение стационарной случайной функции."..".""""". 419 § 2. Свойства корреляционной функции стационарной случай- нойфункции....".."......"..".."..........".."............"...".......""...".".."" 421 § 3. Нормированная корреляционная функция стационарной случайнойфункции....."."...."......""..."...".."""...."""...."."."........ 421 § 4. Стационарно связанные случайные функции .. """......"..""" 423 § 5. Корреляционная функция производной стационарной слу- чайнойфункции.........."......"........"..........".."...."."......................... 424 § 6. Взаимная корреляционная функция стационарной случай- нойфункциииее производной......... ..........................................." 425 § 7. Корреляционная функция интеграла от стационарной слу- чайнойфункции.................."........"..................".............................. 426 § 8. Определение характеристик эргодических стационарных случайныхфункцийизопыта........"................"..........................".. 428 Задачи...".........................................."....................................".......... 430 Глава двадцать пятая. Элеме11 11а1 спектральной теории стационарных случайвы х функций •.•.." •.•• ...• .•.. ..•. .... •" ." •.: . •.•. •.•" ..•. " . .. .. ..... .. ... ... .. . 431 12
§ 1. Представление стационарной случайной функции в виде гармонических колебаний со случайными амплитудами и случай- нымифазами..................................................................................... 431 § 2. Дискретный спектр стационарной случайной функции . ... .. . 435 § 3. Непрерывный спектр стационарной случайной функции. Спектральная плотность................................................................... 437 §4.Нормированная спектральнаяплотность................................ 441 § 5. Взаимная спектральная плотность стационарных и стационарно связанных случайных функций......... .. . .. . .. . .. .. . .. ". .. . . 442 §6.Дельта-функция......................................................................... 443 § 7. Стационарный белый шум........................................................ 444 § 8.' Преобразование стационарной случайной функции стационарной линейt-1ой динамической системой ...... . .. . .. .. . .. .. . .. . . 446 Задачи................................................................................................. 449 Дополнение........................................................................................ 451 Приложения....................................................................................... 461 Предметныйуказатель...................................................................... 474
ВВЕДЕНИЕ Предмет теории вероятностей. Наблюдаемые нами событи я (явления) можно подразделить на сл едую щие три вида : достоверные, невозможные и с.лучайные. Достовер ным называют событие, которое обязательно произойдет, если будет осуществлена определенная сово купность услов ий S. Например, если в сосуде содержится вода при нормальном атмосферном давлении и темпера туре 20°, то событие «Вода в сосуде находится в жидком состоянии» есть достовер ное. В этом примере заданные атмосфер ное давление и температура воды составляют совокупность условий s. Невозможным называют событие, которое заведомо не произойдет, если будет осуществлена совокупность усло вий S. Например, событие «вода в сосуде находится в твердом состоянии» заведомо не произойдет, если будет осуществлена совокупность условий предыдущего примера. Случайным называют событи е, кото рое при осуществле нии совокупности условий S может либо произойти , либо не произойти. Например, если брошена монета, то он а может упасть так, что сверху будет либо герб, либо над пись. Поэтому событие «при бросании монеты выпал «герб»- случайное. Каждое случайное событи е, в частно сти выпадение «герба», есть следствие действия очень многих случайных причин (в нашем примере: сила, с которой брошена монета, форма монеты и многие другие). Невозможно учесть влияние на результат всех этих при чин, поскольку число их очень велико и законы их действия неизвестны. Поэтом у теория вероятностей не ставит перед собой задачу предсказать, произойдет еди ничное событие или нет, -она просто не в силах это сдел ать. По-иному обстоит дело, если рассматриваются с.1 1 учай ные событи я, которые могут многократно наблюдаться при осуществлении одних и тех же условий S , т. е. если 14
речь идет о массовых одн ородных случайных сОбытиях. Оказывается, что достаточно большое число одн ородных случайных событий независимо от их конкретной природы подчиняется определенным закономерностям, а именно вероятностным закономерностям. Установлением этих за кономерностей и занимается теория вероятностей . Итак, предметом теории вер оятностей является изу чение вероятностных закономерностей массовых однород ных случайных событий. Знание закономерностей, которым подч иняются массо вые случайные события, позволяет предвидеть , как эти события будут протек ать. Например, хотя, как было уже сказано, нельзя наперед определить результат одного бросания монеты, но можно предсказать, причем с не большой погрешностью, число появлений «герба», если монета будет брошена достаточно большое число раз. При этом предполагается, конечно, что монету бросают в одн их и тех же услов иях. Методы теории вероятностей широко применяются в различных отраслях естествознания и тех ники: в теории надежности, теории массового обслужи вания, в теорети ческой физике, геодезии, астрономии, теории стрельбы, теории ошибок наблюдений, теории автоматического управ ления, общей теории связи и во многих других теорети ческих и прикладных науках . Теория вероятностей служит также для обоснов ания математической и прикладной стати стики, которая в свою очередь используется при планировании и организации производства, при анализе техн<?.'lогических процессов, предупредител ьном и прие мочном контроле качества продукции и для многих дру гих целей. В последн ие годы методы теор ии вероятностей все шире и шире проникают в различные области науки и техники, способствуя их прогрессу. Краткая историческая справка. Первые работы, в ко торых зарожд ались основные понятия теории вероятно стей , предс тавляли собой попытки созда ния теории азартных игр (Кардано, Гюйгенс, Паскаль, Ферма и дру гие в XVI-XVII вв.). Следующий этап развития теории вероятностей связан с именем Якоба Бернулли (1654- 1705). Доказ анная им теорема, получившая впоследствии название «Закона больших чисел», была первым теоретическим обоснова нием накопленных ранее фактов. 15
Дальнейшими успехами теория вероятностей обязана Муавру, Лапласу, Гауссу, Пуассон у и др. Новый, наиболее плодотворный период связан с име нами П. Л. Чебышева (1821-1894) и его учеников А. А . Маркова (185 6-1922) и А. М . Ляпунова (1857-1918). В этот период теория вероя тностей становится строй . ной математической наукой. Ее последующее развитие обязано в первую очередь русским и советс ким ма;rематикам (С. Н . Бернштейн , В. И . Рома новский, А. Н. Колмогоров, А. Я.·Хинчин, Б. В. Гнеденко, Н. В. Смирнов и др.) . В настоящее время ведущая роль в созда нии новых вет вей теории вероятностей также принадлежит советс ким математи кам.
ЧАСТЬ ПЕ РВАЯ СЛУЧАЙНЫЕ СОБЫТИЯ Глава первая ОСНОВНЫЕ ПОИ.ЯТИ.Я ТЕОРИИ ВЕРОЯТНОСТЕR § 1 . . Испытания и события Выше событие названо случайным. если при осуществлении определенной совокупности условий S оно может либо произойти, либо не произойти. В дальней шем, вместо того чтобы говорить ..:совокупность условий S осуществлена» , будем говорить кратко: «произведено испытание:.. Таким образом, <;обытие будет рассматри ваться как результат испытания. Пример 1. Стрелок стреляет по мишени, разделенной на четыре области. Выстрел-это испытание. Попадание в определенную область мишени -событие. Пример 2. В урне имеются цветные шары. Из урны наудачу берут один шар. Извлечение шара из урны есть испытание. Появле ние шара определенноrо цвета-ссбытие. § 2. ВиАы случайных событий События называют несовместными , если появле ние одного из них исключает появление других событий в одном и том же испытании. Пример 1. Из ящика с деталями наудачу извлечена деталь. Появление стандартной детали исключает появлен)fе нестандартной J(e'ranи. О>бытия споявилась стандартная деталь» и споявилась ие станяартная деталь» -не совместные . Пример 2. Брошена монета. Появление сгерба:t исключает nо JIВЛение надписи. События споявился герб:t и споявнлась надпись» - несовместные. Несколько событий образуют nоАную группу, если в результате испытания появится хотя бы одно нз них. Другими словами, появление хотя бы одного из событий п�дной группы есть достоверное событие. В частности, 17
если событ ия, образующие полную группу, попарно несов .л1естны, то в результате испытания появится одно и тол ько одно из эт их событий . Этот частный случай предста вляет для нас наиб�льший интерес, посколь ку использ уется далее. Пример 3. Приобретены два билета денежно-вещевой лотереи. Обязательно произойдет одно и только одно из следующих событий: «выигрыш выпал на первый .билет и не выпал на второй:., «выигрыш не выпал на первый билет и выпал на второй» , «выигрыш выпал на оба билета», «на оба билета выигрыш не выпал». Эти события обра зуют полную группу попарно несовместных событий. Пример 4. Стрелок произвел выстрел по цели. Обязательно прои зойдет одно из следующих двух событий: попадание, промах. Эrи два несовместных события образуют полную группу. События называют равновозможными , если есть осно вания считать, что ни одно из них не является более возможным, чем другое. Пример 5. Появление «герба» 11 появление надписи при бросании монеты-равновозможные события. Действительно, предполагается, что монета изготовлена из однородного материала, имеет правильную цилиндрическую форму и наличие чекающ не оказывает влипния на выпадение той или иной стороны монеты. Пример 6. Появление того или иного чис.'lа очков на брошенной игральной кости -равновозможные собЬ1тия. Действительно, предrrо лагаетсц, что игральная кость изготов.7\ена из однородного материала, имеет форму правильного многогранника и наличие очков не оказы вает влияния на выпадение любой грани. § З . Классическое определение вероятности Вероятность- одн о из основных понятий теории вероятностей . Существует несколько определений этого пон яти я. При ведем определение, которое называют клас сическим. Далее укажем слабые стороны этого определе ния и приведем другие определения, позвол яющие пре одолеть недостатки классического определен ия. Рассмотрим пример. Пусть в урне содержится 6 оди наковых , тщательно перемешанных шаров, причем 2 из них - красные, 3-синие и 1 -бе.1ый. Очевидно, возмож ность вынуть наудачу из урны цветной (т. е. I<расный или синий) шар больше, чем возможность извлечь бе.ТJый шар. Можно ли охарактеризовать эту возможность чис.пом? Оказывается, можно. Эго число и называют вероятностью события (появления uветного шара). Таким образом, вероятность есть число, характеризующее степень воз можности появления события. i8
Поста вим перед собой Задачу дать количественную оценку возможности того, что взять1й наудачу шар цвет ной. Появление цветного шара будем рассматривать в качестве события А. Каждый из возможных результатов испытания (испытание состоит в извлечении шара из урны) назовем элементарным исходом (элементарным событием). Элементарные исходы обозначим через ro1, ro2, ro3 и т. д . В нашем примере возможны следующие 6 эле ментарных исходов : rо1-появился белый шар; ro2, 003 - появился красный шар; 004, 005, 008- появился синий шар. Легко видеть , что эти исходы образуют полную группу попарно несовместных событий (обязательно появится то.Тiько один шар) и они равновозможны (шар вынимают наудачу, шары одинаковы и тщательно перемешан ы). Те элементарные исходы , в которых интересующее нас событие наступает, назовем благоприятству 101.и, и-ми этому событию. В нашем примере благоприятствуют со бытию А (появлению цветного шара) следующие 5 исхо дов : 002, Ю3, 004, 0011, (1)6. Таким образом, событие А наблюдается, если в испы тании наступает оди н, безразлично какой , из элементар ных исходов, благоприятствующих А; в нашем примере А наблюдается, если наступит ro2, или 008, или оо,, или ro6, или ro8• В этом смысле событие А подраздел яется на несколько элементарных событи й (002, ro8, ro,, 0011, ro8); элементарное же событие не подразделяется на другие события. В этом состоит различие между событием: А и элементарным событием (элементарным исходом). Отношение числа благоприятствующих событию А эле ментарных исходов к их общеl\IУ числу называют вероят ностью события А и обозначают через Р (А). В рассмат риваемом примере всего элементарных исходов 6; из них 5 благоприятствуют событию А. СледоватеJ1ьно, вероят ность того, что взнтый шар окажется цветным, равна Р (А)= 5/6. Это чисJiо и дает ту количественную оценку степени возможности появ.1ения цветного шара, которую мы хотели найти. Дадим теперь определение вероятности. Вероятно стью события А называют отношение чисJiа благоп риятствующих этому событию исходов к общему числу всех равновозможных несовместных элементарных исходов, о б разующ их по.rшую группу. Ит ак, вероятность события А определяется формулой Р(А)=т/п, '19
где т-число эле ментарных исходов , благоприятствую щих А; п-чнсло scex возможных элементарных исходов испытани я. Здесь предполагается, что элементарные исходы не совместны, равновозможны и образуют полную группу. Из определения вероятности вытекают следующие ее свойства: С в ойств о 1 . Вероятность достоверного события равна единице. Действительно, если событие достоверно, то каждый элементарный исход испытания благоприятствует собы тию. В этом случае т = п, следовательно, P(A)=m/n=n/n=1. С в ойств о 2. Вероятность невозможного события равна нулю. Действительно, если событие невозможно, то ни оди н из элементарных исходов испытан ия не благоприятствует событию. В этом случае т = О , следовательно, Р(А)=т/п=0/n=О. С в ойств о 3. Вероятность сл учайного события есть п оложительное число, закл юченное ;.1ежду нулем и еди ницей. Действительно, случайному событию благоприятствует лишь часть из общего числа элементарных исходов испы тания. В этом случае О<т<п, значит, О<m/n<1, следовательно, О<Р(А) < 1. Итак, вероятность любого события удовлетворяет двой ному неравенству О�Р(А) � 1. Далее приведены теоремы, которые. позволяют по из вестным вероятностям одних событий находить вероятно сти других событий. 3 а меч ани е. Современные строгие курсы теории вероЯтностеА построены на теоретико-множественной основе. ОrранИ'Чимся изложе- · нием на языке теории множеств тех понятий, которые рассмотрены выше. Пусть в результате испытания наступает одно и тмько одно из событий ш; (i = 1, 2, . . . , п). События ro; называют злементарньиси событиями (влементарными исходами). Уже отсюда следует, что ЗJ J ементарные события попарно несовместны. Множество всех з.пемен- 20
тарных ссбытий, которые могут появиться в испытании, называюr пространством але1.tентарных событий Q, а сами элементарные собы· тн я-точками пространства Q. Событие А отождествляют с подмножеством (пространства Q), элементы которого есть элементарные исходы, благоприятствующие А; событие В есть подмножество Q, элементы которого есть исходы, благоприятствующие В, и т. д. Таким образом, множество всех со бытий , которые могут наступить в испытании, есть множество всех подмножеств Q. Само Q наступает при любом исходе испытания, поэrому О-достоверное событие; пустое подмножество пространства Q-невозможное событие (оно не наступает ни при каком исходе испытания). Заметим, что элементарные события выделяются из числа всех событий тем, что каждое нз них соде ржит только один элемент Q. Каждому элементарному исходу о:ч ставят в соответствие поло- жительное число Рi-вероятность этого исхода, причем � Pi = I. i По определению, вероятность Р (А) собь11ия А равна сумме вероят ностей элементарных исходов, благоприятствующих А. Отсюда легко получить, что вероятность события достоверного равна единице, не возможного- нулю, произвольного- заключена между нулем и еди· ницей. Рассмотрим важный частный случай, когда все исходы равновоз можны. Число исходов равно п, сумма вероятностей всех исходов равна единице; следовательно, вероятность каждого исхода равна l/n. Пусть событию А благоприятствует т исходов. Вероятность события А равна сумме вероятностей исходов, благоприятствующих А: P(A)= lln+lfn+ . . +1/п. Учитывая, ч·го число слагаемых равно т, имеем Р (A)=m/n. По.пучено классическое определение ве роятности. Построение логически полноценной теории вероятностей основано на аксиоматическом определении случайного события и его вероятно сти. В системе аксиом, предложенной А. Н . Колмогоровым *>, неопре деляемыми понятиями являются элементарное событие и вероятность. Приведем аксиомы, определяющие вероятность: J. Каждому событию А поставлено в соответствие неотрицатель ное действительное число Р (А). Это число называется вероятностью события А: 2. Вероятность достоверного события равна единице: р(Q)=1. З. Вероятность наступления хотя бы одного из попарно несов местных событий равна сумме вероятностей этих событий. Исходя из этих аксиом, свойства вероятностей и зависимости между ними выводят в качестве теорем. •> 1( о л м о r о ров А. Н . Основные понятия теории вероятностей. М., сНаука :t, 1974. 21
§ 4. Основные формулы комбинаторики Комбинаторика изучает количества комби наций, подчиненных определенным условиям, которые можно со ставить из элементов, безразлично какой природы , задан ного конечного множества. При непосредственном вычис лен ии вероятностей часто используют формулы комбина торики. Приведем наиболее употребительные из них . Перест ановками· называют комбинации, состоящие из од них и тех же п различных элементов и отличающиеся только порядком их рас положе ния. Число всех возмож ных перестановок где п!=1.2.з. . .п. Замети м, что удоб но рассматривать 01, полага я, по опреде лению, 01 = 1. Пример 1. Сколько трехзначных чисел можно составить из цифр 1, 2, 3, есл и каждая цифра входит в изображение числа только один раз? Реш е н и е. Искомое число трехзначных чисел Р8=31 =1 ·2·3 =6. Размещениями называют комби нации, соста вленные из п различных элементов по т элементов, кото рые от личаются либо составом элементов, либо их порядком. Число всех возможных размеще ний А�=n(п-1)(п-2) ...(п-т+1). Пример 2. Сколько можно составить сигналов из 6 флажков различного цвета , взятых по 2? Решение. Искомое число сигналов л: =6 ·5=30. Сочетаниями называют к омби нации, соста вленные из п различных элементов по т элементов, которые отл и· чаются хотя бы одним элементом. Число сочетаний с� = n!/(tn! (п -т)!). Пример 3. Ско.'l ькими способами можно выбрать две детали из ящика, содержащего 10 деталей? Реш е и и е. Искомое чис.10 способов С�0 = 101/(21 8!) =45. Подчеркнем , что числа размещений, перестановок и сочетани й связаны равенствоы А;:1 = Р тС':(. 22
За м е ч а н и е. Выше предполага.�юсь, что все п элементов раз личны. Если же некоторые элементы повторяются, то в этом случае комбинации с повторениями вычисляют по другим формулам. Напри мер, если среди п элементов есть п1 элементов одного вида, п2 эле ментов другого вида и т. д., то число перестановок с повторенцями Рп(n1, n2'. . ")=n!/(n1I n2! . " ), где n1+n2+...= n. При решении задач комбинаторики использ уют сле дующие прави ла: Пра вило с уммы. Если некоторый объект А может быть выбран из совокупности объектов т способами, а другой объект В может быть выбран п способ ами, то выбрать либо А, либо В можно т + п способами . Правило произведения. Если объект А можно выбрать из совокупности объектов т способами и после каждого такого выбора объект В можно вьiбрать п спо собами, то пара объектов (А, В) в указанном порядке может быть выбрана тп способами . § 5 . Примеры непосредственного выч исления вероятностей Пример 1. Набирая номер телефона, абонент забыл одну цифру и набрал ее наудачу. Найти вероятность того, что набрана нужная цифра . Решение. Обозначим через А событие -набрана нужная цифра. Абонент мог набрать любую из" 10 цифр , поэтому общее число возможных элементарных исходов равно 10. Эти исходы несовместны, равновозможны и образуют полную группу. Б .'Iаголриятствует собы тию А лишь один исход (нужная цифра лишь одна). Искомая веро ятность равна отношению числа исходов, благоприятствующих со быtию, к числу всех элементарных исходов: Р (А) = 1/10. Пример 2. Набирая номер теJJефона, абонент забыл последние две цифры и, помня лишь, что эти цифр ы - различны, набрал их на удачу. Найти вероятность того, что набраны нужные цифры. Решение. Обозначим через В событие -набраны две нужные цифры. Всего можно набрать столько различных цифр, сколько может быть составлено размещений из десяти цифр по две, т. е . А�6 = I0.9=90. Таким образом, общее число возможных э.'!ементар ных исходов равно 90. Эти исходы несовместны, равновозможны и образуют полную группу. Благоприятствует событию В лишь один исход. Искомая вероятность равца отношению числа исходов , благо приятствующих событию, к числу всех элементарных исходов: Р (В) = 1/90. Пример З. Указать ошибку «решения» задачи: «Брошены две игральные кости. Найти вероятность того, что сумма выпавших очков равна 4 (событие А)». 23
Реше11 и е. Всего возможны 2 исхода испытания: сумма выпав ших очков равна 4, сумма вьшавших очков не равна 4. Событи1� А б.чilrоn�1иитствует один исход; общее число исходов равно днум. Сд е · Дf вателыю, ИCKOMёlSI Bt:/)OЯTllOCTЬ Р(А)=1/2. Ошибка этого решения состоит в том, что рассматриваемые ис ходы не являются равновозможными. П р а виль ное ре ш е ние. Общее число равновозможных l!C· ходов испыта ния равно 6 .6 = ЗG (каждое чнсло выпавших 0•1ков на одной кости может сочета1ьсн со 11сем11 •111СJ1зми очков другой кt;сти). Среди этих исходов благоприятствуют ссбытшо А тоЛ I,ко 3 исхода: (1 ; 3), (3; 1), (2; 2) (в сксбк;�х указаны числа выпавших оч1шв). С.11едователыю, искомая вероятность Р (А) =3/36 = 1/12. Пример 4. В партии из 10 деталеii 7 стандартных. Наiiти веро ят ность 1oro, •1то среди 111ест1-1 взятых наудачу дет :iлей 4 сгандартных. реш с н 11 е. Общt:е '!llCЛO BOЗMOЖllWX эл емента рных JICXOДOB испытания р<11ню чнслу способов. кото ры�1и можно извJ1счь G деталей из 10, т. с. ч11сJ1у сочета ний из 10 элементов по б э:�емснтоn (С�0) . Определим чис:ю исходов, благопрняrствующих интересующему нас ссбытию А (среди шести взятых дeraлeii 4 ста нда ртных). Четыре ста11да рт11ые детали можно взять нз семи станда ртн ых деталей С� спо· собами; при 3;ом остальные 6- - 4 = 2 детали дол :м11ы быть нестан· дарпшм11; в:-1ять ж� 2 11ес 1;1 1щартные детали из 10-7 = З нестанда рт ных дcтa.rrcii можно с5 способа ми. Следовательно, число блаrоприя тствующнх исходов равно с; . с;. Ис1<омая Вf'р11ятностu равна отношен ию числа исходоn, благо· 11vияr�·тnующ11х с:1;быт11ю, к чисJ1у всех элемента рных исходо в: Р(А)=(С�.C�)/Cf0 = 1/2. § 6. Относительная частота. Устойчивость относитель ной частоты Относительная частота наряду с вероятностью принадлежит к uсноnным понятиям теории вероятносте и. Относипzельной частотой события называют отноше ние чисJ1а испытаний , в которых событие появилось, r< общему чисду фактически произведе нных испытаний. Тнким оGра:юм, опюс итеJ1ьная ча(�тота события А олре деJiяется формуJюй W(A)=m/n, где т - чис.rю появлений события, п-общее число испы ,�·ний.
Сопоставл яя определения вероятности и относитель ной частоты, заключаем ; определение вероятности не требует, чтобы испытания производи лись в действитель ности; определение же относительной частоты предпол а гает, что испытания были произведе ны фактически. Дру гими словами, вероятность вы•1исля10т до опь1 1п а,а относительную частоту -после опьипа. Пример 1. Оrдел технического контро.1 1 я обна ружил 3 неСТаt1- да ртных детали в партии нз 80 случайно отобра1шых деталей. Оrио сительная частота появлеt1ия нестандартн1�1х деталей W (А)=З/80. Пример 2. По цели .произвели 24 выстрела, причем было зареги стрировано 1 9 попаданий. Оrносительнзя частота поражения цели W (А)= 19/24. Длител ьные наблюдения показали, что если в оди на ковых услови я х производят опыты, в каждом из которых чисJю испытаний достаточ но велико, то относительная частота об наруживает свойство устойчивости . Эrо свой ство состоит в том, что в различньvс опытах относитель ная rшстота изменяется .мало (тем меньше, че.м больше п роизведено испытан ий), колеблясь около некоторого по стоянного rшсла . Оказалось, что это постоянное число есть вероятность появления события . Таким образом, ес.тш опытным путем установ.1ена от носительная частота , то полученное число можно припя·rь за приближенное значение вероятности . Подробнее и точнее связь между относптельной часто ой и вероятностью будет изложен� далее. Теперь же роиллюстрируем свойство устой ч ивости на примера х . Пример 3. По данным шведской статистики, относительная 'iас ота рождения девочек за 1935 r. по месяцам характеризуется сле ующн�и чис.r�амн (числа расnо.11ожены в порядке �'l едова ния мес я. ев. ш1 чиная с января): 0,486; 0,489; 0,490; 0,471; 0,478; 0,482; ,462; 0,484; 0,485; 0,491 ; 0,482; 0,473 Оrносительпая частоrа колfблется около чи,�а 0,482, которпе ожио принять за прибли женное значение вероятности рождения евочек. Заметим, что статистические да нные рамичных стран дают при· ерно то же зиа че"ние отнv:нтельноit частоты. Пример 4. ,' '<1 ногократно пrов' •ди,1нсь '"'''ЫТЫ бросания монеты, в которых подс1штыва.1и чис.'/•) появле:, 11 .; <�:герба». Р�зультаты не с одьких опытов приведе ны в таб11. 1 . 3десь относите.'Iы1ые частоты НР.значиw.лъио 0·1·к лоняются от •1 ела 0,5, причем тем ме ньш�. чем больше ЧНС'ЛО 1-1спыт11ний. Напри· м р, при 4040 испытаниях отклонение равно 0,0069, а при 24 ОО О 25
Таб.1ица 1 Ч11с.n о 1 Ч исло появлений 1 Относительная бросаниll сгерба» частота 4040 2048 0, 5069 12000 6019 0,5016 24 000 12 012 0, 5005 испытаний-лишь 0,0005. Приняв во внимание, что вероятность по явления «герба» при бросании монеты равна 0,5, мы вновь убеж· даемся, что относительная частота КО.'Iеблется около вероятности .. § 7. Огран иченность к.яассическоrо определе ния вероятности . Статистическая вероятност ь Классическое определение вероятности предпо- лагает, что число элементарных исходов испытания · ко нечно. На практике же весьма часто встречаются испы тания, число возможных исходов которых бесконечно . В таних случаях классическое определение неприменимо. Уже это обстоятельство указывает на ограниченность классического определ ения . Отмеченный недостаток может быть преодолен, в частности , введением геометрических вероятностей (см. § 8) и, конечно, использованием аксио матической вероятности (см. § 3, замечание). Наиболее с.1абая сторона классического определения состоит в том, что очень часто невозможно представить результат испытания в виде совокупности элементарных событи й. Еще труднее указать основан ия, позволяющие считать элементарные события равновозможными . Обычно о ра вновозможности элементарных исходов испытан ия говорят из сооб ражений симметрии. Так, например, пред полагают, что игральная кость имеет форму правильного многогранника (куба) и изготовлена из однородного мате риа.па . Одн ако задач и, в которых можно исходить из сооб ражен ий симметрии, на практике встречаются весьма редко. По этой причине наряду с классическим опреде лением вероятности используют и другие определен ия, в частности статистическое определение : в качестве ста тистической вер оятности событ ия принимают относи тель ную частоту или число, 'близкое к не й. Например, ее.п и в результате достаточно большого числа испытаний оказалось, что относите.r�ьная частота весьма близка 26
к числу 0,4, то это число можно принять за статистиче скую вероятность события. Легко проверить, что свойства вероятности, вытекаю щие из классического определения (см. § 3), сохраняются и при статистическом определ ениИ вероятности. Действи тельно, если событие достоверно, то т = п и относитель ная частота т/n =n/n = 1, т. е. статистическая вероятность достоверного события (так же как и в случае классического определения) равна единице. . Если событие невозможно, то т =О и, следовате.'lьно, относительная частота 0/n =O, т. е. статистическая вероятность невозможного события равна нулю. Для любого события О�т � п и, следовательно, от носительная частота О�т/п� 1 , т. е. статистическая вероятность любого события заклю чена между нулем и еди ницей. Для существования статистической вероятности собы тия А требуется : · а) возможность, хотя бы принципиально, производить неограниченное число испытаний, в каждом из которых событие А наступает или не наступает; б) устой чивость относительных частот появления А в различных сериях достаточ но большого числа испыта ний. Недостатком статистического определения являетс я неоднозначность статисти ческой вероятности; так, в при веденном примере в качестве вероятности события можно прин.ять не только 0,4, но и 0,39; 0,41 и т. д. § 8. Геометрические вероятности Чтобы преодолеть недостаток классического опре деления вероятности, состоящий в том, что оно непри менимо к испытан иям с бесконечным числом исходов, вводят геометр ические вероятности - вероятности попа дания точки в область (отрезок, часть плоскости и т. д.). Пусть отрезок l составляет часть отрезка L. На отре зок L наудачу поставлена точка. Это означает выпо.11не- ._ 27
ние следующих предположен ий: постав.ленная точка может оказаться в любой точке отрезка L, вероятность попадания точки на отрезок l пропорциональна длине этого отрезка и не зависит от его расположен ия относи тельно отрезка L. В этих предположениях вероятность поnадания точки на отрезок l определ яется равенством Р =дJшна !/Длина L. · Пример 1. На отрезок ОА длины L числовой оси Ох наудачу поставлена точка В (х). Найти вероятность того, что меньшин из отрезков ОВ и ВА имеет длину, большую L/3. Предполагается, что вероятность попадания точки на отрезок пропорциональна дл ине от резка и не зависит от его расположения на числовой оси . Реш е н и е. Разобьем отрезок ОА точками С и D на 3 равные части . Требование задачи будет выполнено, если точка В (х) попа дет на отрезок CD длины L/3. Искомая вероятность Р = (L/3)/L = 1/3. Пусть плоская фигура g составляет часть плоской фигуры G. На фи гуру G наудачу брошена точка. Это означает выполнение следующих предположен ий: брошен ная точка может оказаться в любой точке фигуры G, вероятность попадания брошенной точки на фигуру g пропорциональна площади этой фигуры и не зависит ни от ее расположен ия относительно G, ни от формы g. В этих предположен иях вероятность попадания точки в фигуру g определ яется равенством · Р = Площадь g/Площадь G. Пример 2. На плоскости начер_чены две концентрические окруж ности, радиусы которых 5 и 10 см соответственно. Найти вероят ность того, что точка, брошенная наудачу в большой круг, попадет в кольцо, образованное построенными окружностями. Предполагается, что вероятность попадания точки в плоскую фигуру пропорциональна площади этой фигуры и не зависит от ее расположения относительно большого круга . Реш е н и е. Площадь кольца (фигуры g) Sg=n(102-52)=75я. Площадь большого круга (фигуры G) S0 =nl02=IООя. Искомая вероятность Р=75я/( 100л) =0,75. Пример 3. В сигнализатор поступают сигналы от двух устройств, · причем поступление каждого из сигналов равновозможно в любой момент промежутка времени мнтельносtью Т. Моменты поступления сигналов независимы один от другого. Сигнализатор срабатывает, если разность между моментами поступления сигналов меньше 28
t (t < Т). Найти вероятность того, что сигнализатор сработает за время Т, если каждое из устройств пошлет по од ному сигналу. Реш е н и е. Обозначим моменты поступления сигналов первого и второго устройств соответственно через х и у. В силу условия задачи должны выполняться двойные неравенства: О<;х <; Т, О :о: :; у<;Т. Вве дем в рассмотрение прямоугольную си стему координат хОу. В этой системе двойным неравенствам удовлетворяют ко ординаты .любой точки квадрата ОТАТ (рис. 1). Таким образом, этот квадрат можно рассматривать как фигуру а, ко ординаты точек которой представляют все возможные значения моментов по- g тг- -�mтm�А( t ступления сигналов. о t т Сигнализатор срабатывает, если раз- ность между моментами поступления си- Рис. 1 гналов меньше t, т. е. если у-х < t приу>х их-у<tприх>у,или,чтотоже, у<х+t при у>х, р>x-t при у<х. х Неравенство (*) выполняется для тех точек фигур ы G, которые лежат выше прямой у=х и ниже прямой y=x+t; неравенство (**) имеет место для точек, расположенных ниже прямой у=х и выше прямой y=x-t. l(ак видно из рис. 1, все точки , координаты которых удо мет воряют неравенствам (*) и (**) , принадлежат заштрихованному шестиугольнику. Таким образом, этот шестиугольник можно рассма тривать как фигуру g, координаты точек которой являются благо приятствующими моментами времени х и у. Искомая вероятность Р=Пл. gfПл . G =(T2 -(T- t )2)/T2 =(t (2T- t))/T2. 3 а мечани е 1. Приведенные определения являются частными случаями общего определения геометрической вероятности. Если обозначить меру (дл ину, площадь, объем) области через mes, то вероятность попадания точки, брошенной наудачу (в указанном выше смысле) в область g-часть области а, равна Р=mesg/mesG. 3 а м е ч а н и е 2. В случае классического определения вероят ность достоверного (невозможного) события равна единице (нулю); справедливы и обратные утверждения (например, если вероятность события равна нулю, то событие невозможно). В случае геометри ческого определения вероятности обратные утверждения не имеют места. Например, вероятность попадания брошенной точки в одну определенную точку области G равна нулю, однако это с.обытие может произойти, и, следовательно, не является .невозможным . 29
Зацчи 1. В ящике имеется 50 одинаковых детапеА, из них 5 окра· шенных. Наудачу вынимают одну деталь. Найти вероятность тоrо, что извлеченная деталь окажется окрашенной. Отв. Р =О,1. 2. Брошена игральная кость. Найти вероятность тоrо, что выпа· дет четное число очков. Отв. Р =О,5. З. Участники жеребьевки тянут из ящика жетоны с номерами от 1 до 100. Найти вероятность того, что номер первого наудачу извлеченноrо жетона не содержит цифры 5. Отв. р=О,81. 4. В мешочке имеется 5 одинаковых кубиков. На всех rранях каждого кубика написана одна вз следующих буJ(В: о, п, р, с, т. Найти веРQятносrь того, что на вынутых по одно.му и расположен· ных «В одну линию» кубиков можно будет прочесть слово сспорт». Отв. р=1/120. о. На каждой из шести одинаковы х карточек напечатана одна · из следующих букв: а, т, м, р, с, о. Карточки тщательно переме шаны. Найти вероятность того, что на четырех, вынутых по одной и расположенных св одну линию» карточках можно будет прочесть слово строе». Отв . р= 1/А:= 1/360. 6. Куб, все грани которого окрашены, распилен на тысячу куби ков одинакового размера, которые затем тщательно перемешаны. Найги вероятность того, что наудачу извлеченный кубик будет иметь окрашенных rраней: а) одн у; б) две; ·в) три. Отв . а) 0,384; б) 0,096; в) 0,008. 7. Из тщательно перемешанного п�лного набора 28 костей домино наудачу извлечена кость. Найти вероятность того, что вторую наудачу извлеченную кость можно приставить к первой, если первая кость: а) оказалась дубле м; б) не есть дубль. Отв. а) 2/9; б) 4/9. 8. В замке на общей оси пять дисков. Каждый диск разделен на шесть секторов, на которых "аписаны различные буквы. Замок открывается только в том случае, если каждый диск занимает одно определенное положение относительно корпуса замка. Найти вероят ность того, что при произвольной установке дисков замок можно будет открыть . Отв. р= 1/65, 9. Восемь различных книг расставляются наудачу на одной полке. Найти вероятность того, что две определенные книги ока жутс я поставленными рядом. Отв. р=7. 21 .61/81 =1/4. 10. Библиотечка состоит из де сяти различных книг, причем пять книг стоят по 4 рубля каждая, три книги -по одному рублю и две книги -по 3 рубля. Найти вероятность того, что взятые наудачу две книги стоят 5 рублей. · Отв. P=G·C�/ Cfo =l/3. Н. В партии из 100 деталей отдел технического контроля обиа· ружил 5 нестандартных деталей. Чему равна относительная частота появления нестандартных деталей? Отв. w=0,05. зо
12. При стрельбе из винтовки относительная частота попадания в цель оказалась равной 0,85. Най1и число попаданий, если всего было произведено 120 выстрелов. Отв. 102 попадания. 13. На отрезок ОА длины L числовой оси Ох наудачу постав· пена точка В (х) . Найти вероятность того, что меньший i!З отрезков ОВ и ВА имеет длину, . меньшую, чем L/3. Предполагается , что веро· ятность попадания точки на отрезок пропорциональна длине отрезка и не зависит от его расположения на числовой оси. Отв. р = 2/3. 14. Внутрь круга радиуса R наудачу брошена точка. Найти вероятность того, что точка окажется внутри вписанного в круг квадрата. nредполагается, что вероятность попадания точки в квад· рат пропорциональна площади квадрата и не зависит от его pacno· ложения относительно круга. Отв. P = 2/n. 15. Задача о встрече. Два студента условились встретиться в определенном месте между 12 и 13 часами дня. Пришедший пер вым ждет второго в течение 1/4 часа, после чего уходит. Найти веро· ятность того, что встреча состоится, если каждый студент наудачу выбирает момент своего прихода (в промежутке от 12 до 13 часов). У к аза и и е. Ввести в рассмотрение прямоугольную систему коорди нат хОу и принять для простоты, что встреча должна состо яться между О и 1 часами. Отв. Возможные значения координат: О <; ; х<; ; 1, О<:;у� 1; б.'Iагоприятствующие встрече значения координат: 1у-х 1 <:; ; 1/4; Р=7/16. Глава втора я ТЕОРЕМА СЛОЖЕНИЯ ВЕРОЯТНОСТЕ Й § 1. Теорема сло жения веро ятностей несовместных событий Су.ммой А + В двух событий А и В .называют событие, состоящее в появлении собь1тия А, и.ли собы тия В, или обоих этих событий. Например, если из ору ди я произведе ны два выстрела и А- попадание при пер вом выстреле, В - попада ние при втором выстре.'1е, то А+В-попада ние при первом выстреле, или при вто ром, или в обоих выстре.11ах . В частности , если два события А и В-несовместные, то А+ В-событие, состоящее в появлении одн ого аз :этих событи й, безразлично какого. Сум мой нескол ьких собьцп ий называют событие, кото рое состоит в появлении хотя бы од ного из этих собы пй. Например, событие А+В+С состоит в поя;:;,·11.:юш 31
одного из следующих событий: А, В, С, А и В, А и С,ВиС,АиВиС.- Пусть события А и В- несовместные, причем вероят ности этих событий известны. l(ак найти вероятность того, что наступит либо событие А, либо событие В? Оrвет на этот вопрос дает теорема сложения. . Теорема . Вероятность появления одного из двух несов местных событ ий, безразл ично какого , равна сумме веро ятностей эт их событий : Р(А+В)=Р(А)+Р(В). Доказательство. Введем обозн ачения: п-общее число возможных элементарных исходов испытан ия; tni - число исходов, благоприятствующих .событию А; т, - число исходов, б<1 1 агоприятствующих событию В. . Число элементарных исх одов, благоприятствующих наступлению либо событи я А, либо события В, равно т1 + т,. Спедовательно, Р(А+В)=(т1+т,)/п=т1/n+т,Jп. Приняв во внимание, что m1/n = Р (А) и т,Jn = Р (В), окончательно пол учим Р(А +В)=Р(А) +Р(В). С л едств и е. Вероятность появл ения одного из не скольких попарно несовмест ных событий, безразлично какого, равна сумме вероятностей эт их событий: P{A1+Az+ ...+А")=Р(А1)+Р(А,) + ...+Р(А"). Доказат�л ь с тво. Рассмотрим три события: А, В и С. Так как рассматриваемые события попарно несов местны, то появление одного из трех событий, А, В и С, равносильно наступлению одного из двух событий, А +В и С, поэтом у в силу указанной теоремы Р(А+В+С)=Р[(А+В)+С]=Р(А+В)+Р(С)= = Р (А}+Р (В) +Р(С). Для произвольного числа попарно несовместных собы тий доказательство проводится методом математической индуКции. о,. ._, 1. 8 урне З0 шаров: 10 красных, 5 С:ВНВХ В 15 беJIЫХ. Наlтн вероятность nо.явпеиия цветного шара. Решеи в е. По.явление цsетиоrо шара означает появление либо красвоrо, либо сввеrо шара• . 32
Вероятность появления красного шара (событие А) Р (А) = 10/30 = 1/3. Вероятность появления синего шара (событие В) Р (В) =5/30 = 1/6. События А и В несовместны (появление шара одного цвета искnю· чает появление шара другого цвета), поэтому теорема сложения при менима. Искомая вероятность Р (А+В)=Р(А)+Р(В) = 1/3+ 1/6= 1/2. Пример 2. Стрелок стреляет по мишени , разделенной на 3 об ласти. Вероятность попадания в первую область равна 0,45, во вторую-0,35. Найти вероятность того , что стрелок при одном выстреле попадет либо в первую, либо во вторую область. Реш е н и е. События А - «стрелок попал в первую область» и В - «стрелок попал во вторую область» - несовместны (попадание в одну область исключает попадание в другую) , поэтому теорема сложения применима. Искомая вероятность .. .' Р (А +В)=Р(A) -f-P(8) = 0,45+ 0,35=0,80 . § 2. Полная группа событий Теорема. Сумма вероятностей событи й А1, А 2 , Ап, образующих полную группу, равна единице: Р(А1)+Р(А2)+. . . +Р(Ап)=1. Док а затель ств о . Так как появление одн ого из событий полной груп пы достоверно, а вероятность досто верного события равна единице, то Любые два события полной группы несовместны, поэтому можно применить теорему сложения : Р (А1+А2 + ...+A n)=P (A1) +P(A2) + ...+Р(Ап). (**) Сравнивая (*) и (**) , получим Р(А1) +Р(А2)+... +Р(Ап) = 1. Пример. Консультационный пункт института получает пакеты с контрольными работами из городов А, В и С. Вероятн�� по.пу чения пакета из города А равна 0,7, из города В-0,2. 1-iайти веро ятность того, что очередной пакет будет получен из города С. Решение. События «пакет получен из города А», «пакет получен из города В» , «пакет получен из города С» образуют полную группу, �-2JO 33
поэтому сумма вероятностей этих событий равна единице; 0,7+о,2+Р=1. Отсюда искомая вероятность P=l -0,9 =0,l . § 3. Противоположные события Противоположными называют два единственно возможных события, образующих полн ую группу. Если одно из двух противоположных событий обозн ачено через А, то другое принято обозначать А. Пример 1. Попадание и промах при выстреле по цели -противо положные события. Если А-попадание, то А- промах. Пример 2. Из ящика наудачу взята деталь. События «появилась стандартная деталь» и «появилась нестандартная деталЬ» -противо положные. Теорема. Сумма вероятностей прот ивоположных собы- тий равна едщ-tцце�tс ,·;_ ожиn:11и :tllal leИ ••c.w Р(А)+Р(А)=1. f\,�J,.,,/н'.., , , Д о к а з а т ель ств о. Противоположные события об разуют полную группу, а сумма вероятностей событий, образующих полную группу, равна единице (см. § 2). 3амечание 1. Если вероятность одного из двух противопо ложных событий обозначена через р, то вероятность другого события обозначают через q. Таким образом, в силу предыдущей теоремы p+q=I. Пример 3. Вероятность того, что день будет дождливым, Р=О,7. Найти вероятность того, что день будет ясным. Решение. События «день дождливый» и «день ясный» - про тивоположные, поэтому искомая вероятность q=1-р = 1 -0,7=0,3. 3 а мечани е 2. При решении задач на отыскание вероятности событи я А часто выгодно сначала вычислить вероятность события А, а затем найти искомую вероятность по формуле Р(А)=1-Р(А). Пример 4. В ящике имеется п деталей, из которых т стандарт ных. Найти ве�оятность того , что среди k наудачу извлеченных дета пей ость :хотя бы одна стандартная. Р е m е Jt и е. С'.обытия «Среди извлеченных деталей есть хотя бы одна щ:андартная» в «среди извлеченных деталей нет ни одной ста11- дартнон» - противоположные. Обозначим первое событие через А, а второе- через ii. �
.Очевидно. Р(А)==1-Р(А). Найдем Р (А). Общее число способов . которыми можно извлечь k деталей из п детал ей , равно С�. Число нестандартных деталей равно п-т; из зтоrо числа деталей можно с:-т способами измечь k не стандартных деталей . Поэтому вероятность того, что ере.цв изв.печен- ных k деталей нет ни одной стандартной , равна Р (А) =,�.:.т1С:. Искомая вероJ1ТНость Р(А)=1-Р(А)=1 -С:-т1С:. § 4. Принцип практической иевоэможвости маловероятных собы тий "' При решении многих практических задач прихо дится иметь дело с событиями, вероятность которых . весьма мала, т. е . близка к нулю. Можно ли считать, что маловероятное событие А в единичном испытании не произойдет? Такого заключения сделать нельзя, так как не исключено, хотя и ·мало вероятно. что событие А наступит. Казалось бы, появление или иепоявление мало�роят ного события в единичном испытании предс казать невоз• можно. Однако длительный опыт показывает, что мало вероятное событие в еди ничном испытании в подавляющем большинстве случаев не наступает. На основании этого · факта принимают следующий «принцип практической невозможности маловероятных событий»: если случайное собьипие имеет очень малую вероятность, то практически можно считать, что в единичном испьипании вто собы тие не наступ ит . Естественно возникает вопрос: насколько ' малой должна быть вероятность событи я, чтобы можно бЬ1Ло считать невозможным его появление в одн ом испытании? На 9ТОТ вопрос нельзя ответить од нозначно. Для задач, различных -по существу, ответы разные. Например, если вероятность того, что парашют при прыжке не раскроется, равна 0,01, то было бы недопустимым применять такие парашюты. Если же вероятность того, что поезд даль него следования прибудет с опозданием, равна 0,01, то можно практически быть уверенным, что поезд прибудет вовремя . Дост�точно малую вероятность, при которой (в дан ной определенной задаче) событие можно считать прак- 35
тически невозможным, называют уровнем значимости. На практике обычно принимают уровни значимости , заклю ченные между 0,01 и 0,05. Уровень значимости , равный 0,01, называют однопроцентным; уровень значимости, равный 0,02, называют двухп роцентным, и т. д. Подчеркнем, что рассмотренный здес ь принцип позво ляет делать предс казания не только о событи ях , имею щих малую вероятность, но и о событиях, вероятность которых близка к еди нице. Действительно, если событие А имеет вероятность, близкую к нулю, то вероятность противоположного событи я А близка к еди нице . С другой стороны, непоявление · события А означает наступление противоположного события А. Таким образом, из прин ципа невозможности маловероятных событий вытекает следующее важное для приложений следствие : если сл у чайное событие имеет вероятность, очень близкую к еди нице, то практически можно считать, что в единичном испытании это событие наступит . Разумеется, и здес ь ответ на вопрос о том, какую вероятность считать близ кой к ед инице, зависит от существа задачи. Задачи 1. В денежно-вещевой лотерее на каждые 1О ОО О билетов разыгрывается 150 вещевых и 50 денежных выигрышей. Чему равна вероятность выигрыша, безразлично денежного или вещевого, .дЛя владельца одного лотерейного билета? Отв. р=О,02 . 2. Вероятность того, что стрелок при одном выстреле выбьет 10 очков, равна 0,1; вероятность выбить 9 очков равна 0,3; вероят ность выбить 8 или меньше очков равна 0,6 . Найти вероятность того, что при одном выстреле стрелок выбьет не менее 9 очков. Отв. р=О,4. 3. В партии из 10 деталей 8 стандартных. Найти вероятность того, что среди наудачу извлеченных 2 деталей есть хотя бы одна станда ртная. Отв. р = 44/45. 4. В ящике 10 деталей, среди которых 2 нестандартных. Найти вероятность того, что в наудачу отобранных 6 деталях окажется не более одной нестандартной детали. Отв. р =2/3. У к а з а н и е. Если А-нет ни одной нестандартной детали, В-есть одна нестандартная деталь, то р (А +В) =Р (А)+Р (В) = C:fcfo + �·c:;cfo. 5. События А, В, С и D образуют полную группу. Вероятности событий таковы: Р(А) =О,1; Р(В) =О,4; Р(С) =О,3. Чему равна вероятность события D? Отв. Р (D) =0,2. 36
6. По статистическим данным ремонтной мастерской , в среднем на 20 остановок токарного станка приходится: 10-для смены резца; · 3-нз -за неисправности привода; 2-из-за несвоевременной подачи заготовок. Остальные остановки происходят по другим причинам. Найти вероятность остановки станка по другим причинам. - Отв. р = 0,25. Глава третья ТЕОРЕ МА УМНОЖЕНИЯ ВЕ РОЯТНОСТЕЙ § 1. Произведение событий Произведением двух событий А и В называют событие АВ, состоящее в совмес1:НОМ появлении (совме щении) этих событий. Например, если А -деталь годная, В-деталь окрашенная, то АВ-деталь годна и окрашена. Произведен ием нескольких событий называют событие, состоящее в совместном появлении всех этих событий. Например, если А, В, С - появление «герба» соответственно в первом, втором и третьем бросаниях монеты, то АВС - выпадение «Герба» во всех трех испытаниях . § 2. Условная вероятность Во введении случайное событие определено как событие, которое при осуществлении совокупности усло вий S может произойти или не произойти . Если при вы числении вероятности события никаких други х ограни чени й, кроме условий S, не налагается, то такую вероят ность называют безусл овной; если же налагаются и другие дополнительные условия, то вероятность события называют условной. Например, часто вычисляют вероятность собы тия В при до полнительном условии, что произошло со бытие А. Заметим, что и безусловная вероятность, строго говоря, является условной, поскольку предполагается осуществл ение условий S. Усл авной вероятностью РА (В) называют вероятность события В, вычисленную в .предположении, что событие А уже наступило. Пример. В 'урне З белых ·и 3 черных шара. Из урны дважды вынимают по одному шару, не возвращая -их обратно. Найти вероят ность появления белого шара при втором испытании ·(событие В), если при первом испытании был извлечен черный шар (событие А). 31'
Решение. После первого испытания в урне осталось 5 шаров. из них 3 белых. Искомая условная ве роятность Р А (8) =3/5. Этот же результат можно получить по формуле РА(В)=Р(АВ)/Р(А) (Р(А)>О). Действительно, вероятность появления белого шара при первом ис- пытании 1 Р(А)=3/6=1/2. Найдем вероятность Р (АВ) тогq, что в первом испытании по явится черный шар, а во вто ром -белый. Общее число исходов - совместного появления двух шаров, безразлично какого цвета, равно числу размещений А: =6·5=30. Из этого числа исходов событию АВ благоприятствуют 3·3=9 исходов. Следавательно, Р (АВ) = 9/30 =3/10. Искомая условная ве роятность Р А (В) = Р (АВ)/Р (А) = (3/ 10)/(1/2) =3/5. Как видим, получен прежний результат. Исходя из класс.ического определения вероятности,· формулу (*) можно доказать. Это обстоятельство и служит основанием для следующего общего (применимого не только дл я классической вероятности) определения. Условная вероятность события В при условии, что событие А уже наступило, по определению, равна рА(В)=р(АВ)/Р(А) (Р(А)>О). § 3. Т�рема умножения вероятностей · Рассмотрим два события: А и В; пусть вероят· ности Р (А) и РА (В) известны. Как найти вероятность совмещения этих событий, т. е . вероятность того, что п�явится и событие А и событие В? Ответ на этот вопрос дает теорема умножения . · Теорема. Вероятность совместного появления двух со бьlтий равна проиэведеяию вероятности одного из них на условную вероятность другого, вьtчисАенную в предпо· ложении , что первое событие уже наступило: р(АВ)=;:=р(А)рА(В). Д о к аза т ельств о. По определению ус.повной веро- ятности, . рА (В) � Р1(АВ)/Р (А). 38
Отсюда Р(АВ)=р(А)рА(В). 3 а мечани е. Применив формулу (*) к событию ВА, получим Р (ВА) =Р (В) Рв (А), или, поскольку событие ВА не отличается от события АВ, Р (АВ) =Р (В) Рв (А). (**) Сравнивая формулы (*) и (**), заключаем о справедливости ра· венства Р(А)РА(В)=Р(В)Рв(А). С л едств и е . Вероятность совместного появления нескольких событий равна произведению вероятности одного из них на условные вероятности всех остальных, причем · вероятность каждого последующего событ ия выч исляется в предположении, что все предыдущие события уже появи лись : Р (А1А 2 А3•• •Ап) =Р(А1)РА,(А2)РА1А1(А3)•• • •··рА1А1•••An-l (Ап ), где РА,А, ...An -l (Ап)-вероятность события А п , вычислен ная в предположении, что события А 1, А 2 ,•••,An-lна ступили. В частности, для трех событий Р(АВС)=Р(А)РА(В)РАв(С). Заметим, что порядок, в котором расположены собы тия, может быть выбран любым, т . е. безразлично какое событие считать первым, вторым и т . д . Пример 1. У сборщика имеется 3 конусных и 7 эллиптических валиков. Сборщик взял один валик, а затем второй. Найти вероят ность того, что первый из взятых валиков - конусный, а второй - элли птический. Р е ш е н и е. Вероятность того, что первый валик окажется ко нусным (событие А), Р (А) =З/10. Вероятность того, что второй валик окажется эллиптическим (событие В). вычисленная в предположении, что первый валик - конусный, т. е. условная вероятность р А (8) =7/9. По теореме умножения, искомая вероятность Р (АВ) =Р(А) РА (В) =(З/10)-(7/9) = 7/30. Заметим, что, сохранив обозначения, легко найдем: Р (В) = 7/10, Рв (А) =3/9, Р (В) Рв (А) =7/30, что наглядно иллюстрирует спра· ведливость равенства (***)· 39
11р.имер 2. В урне 5 белых, .4 черных и 3 синих шара. Каждое испытание состоит в том, что наудачу извлекают один шар, не воз вращая его обратно. Найти вероятность того, что при первом испы тании появится белый шар (событие А), при втором- черный (собы тие В) и при третьем-синий (событие С) . Решение. Вероятность появления белого шара в первом испытании Р (А) = 5/12. Вероятность появления черного шара во втором испытании, вычисленная в предположении, что в первом испытании появился белый шар, т. е. условная вероятность РА (8) =4/ll. Вероятность появления синего шара в третьем испытании, вы численная в предположении, что в первом испытании появился белый шар, а во втором -черный, т. е. условная вероятность РАв(С)=3/l0. Искомая вероятность р (АВС) =Р (А) V.A (В) р АВ (С) =(5/12)·(4/ 1 1) -(3/10) = 1/22. § 4. Независимые собы тия. Теорема умножения для независимых событий Пусть вероятность события В не зависит от по явления события А. Событ ие В называют независимым от события А, если появление события А не изменяет вероятности события В , т. е. есл и условная вероятность события В равна его безусловной вероятности: рА(В)=р(В). Подставив (*) в соотношение (***) предыдущего па раграфа, получим Р(А)Р(В)=Р(В)Рв(А). Отсюда Рв(А)=Р(А), т . е. условная вероятность события А в предположении, что наступило событие В , равна его безусловной вероят ности. Другими словами, событие А не зависит от со бытия В. Итак, если событие В не зависит от события А , то и событие А не зависит от события В; это означает, что свойство независимости событий взаимно. 40
Для независимых событий теорема умножения Р(АВ)=Р(А)РА(В) имеет вид Р(АВ)=Р(А)Р(В), («=*) т. е. вероятность совместного появления двух независимых событий равна произведению вероятностей этих событий. Равенство (**) принимают в качестве определен ия не зависимых событий. Два события называют незави симыми, если вероятность их совмещения равна произведению вероятностей этих событий; в противном случае события называют зави си мыми . На практике о независимости событий заключают по смыслу задач и. Например, вероятности поражения цели каждым из двух орудий не зависят от того, поразило ли цель другое орудие, поэтому события «первое орудие поразило цель» и «второе орудие поразило цель» неза висимы. Пример 1. Найти вероятность совместного поражения цели двумя орудиями, если вероятность поражения цели первым орудием (собы· тие А) равна 0,8, а вторым (событие В) -0,7. Решение. События А и В независимые, поэтому, по теореме умножения, искомая вероятность Р(АВ)=Р(А)Р(В)=0,7·0,8=0,56. 3амечание 1.Если события А иВ независимы, тонезави симы также события А и В, А и В, А и В. Действительно, А =АВ+АВ. Следовате.'!ьно, Р(А)=Р(АВ)+Р(АВ), или Р(А)=Р(АЁ)+Р(А)Р(В). Оrсюда Р (АВ)=Р(A) [l-P(В)], или Р (АЁ) =Р (А)Р (В). т. е. события А и В независимы. Независимость событий А и В, А и В-следствие доказанного утверждения. Несколько событий называют попарно независимыми. если каждые ·два из них независимы. Например, события А, В , С попарно независимы, если независимы события АиВ,АиС,ВиС. Для того чтобы обобщить теорему умножен ия на не сколько событий, введем понятие независимости событий в совокупности. 41
Несколько событ ий называют независи мыми в совокуп ности (или просто независимыми), если независимы ка ждые два из них и независимы каждое событие и все возможные произведения остал ьных. Например, если со бытия А 1, А 2 , Аз независимы в совокупности, то неза висимысобытияА1иА2,А1иАз,А2иАз;А1иА1А8, А1 и А1Аз, А8 и л1А2• Из сказанного следует, что если события независимы в совокупности, то условная вероят ность появления любого события из них, вычисленная в предположении, что наступили какие-либо другие собы тия из числа остальных, равна его безусловной вероят ности. Подчеркнем, что если несколько событий независимы попарно, то отсюда еще не следует их независимость в совокупности . В этом смысле требование независимости событий в совокупности сильнее требования их попарuой независимости . Поясним сказанное на примере . Пусть в урне имеется 4 шара, окрашенные : один -в красный цвет (А}, один - в синий цвет (В}, один-в черный цвет (С) и один-во все эти три цвета (АВС) . Чему равна вероятность того, что извлеченный из урны шар имеет красный цвет? Так как из четырех шаров два имеют �расный цвет, то Р (А) = 2/4 = 1/2. Рассуждая аналогично, найдем Р (В) = 1/2, Р (С) = 1/2. Допустим теперь, что взятый шар имеет синий цвет, т. е . событие В уже произошло. Изме нится ли вероятность того, что извлеченный шар имеет красный цвет, т. е . изменится ли вероятность события А? Из двух шаров, имеющих синий цвет, один шар имеет и красный цвет, поэтому вероятность событи я А по-преж нему равна 1/2. Другими словами , условная вероятность события А, вычисленная в предположении, что наступило событие В, равна его безусловной вероятности . Следова тельно, события А и В независимы. Аналогично придем к выводу, что события А и С, В и С независимы. Итак, события А, В и С попарно независимы. Независимы ли эти событи я в совокупности? Оказы вается, нет. Действительно, пусть извлеченный шар имеет два цвета , например синий и черный. Чему равна вероят ность того, что этот шар имеет и красный цвет? Лишь один шар окрашен во все три цвета, поэтому взятый шар имеет и красный цвет. Таким образом, до пустив, что события В и С произошли, приходим к выводу, что событие А обязательно наступит. Следовательно, это 42
событие достоверное и вероятность его равна единице. Другими словами , условная вероятность Рвс (А) = 1 собы тия А не равна его безусловной вероятност.и Р (А) = 1/2. Итак, попарно независимые события А , В, С не являются независимыми в совокупности. ' Приведем теперь следствие из теоремы умножения. Следств и е. Вероятность совместн.ого появления нескольких собьипий, независимых в совокупности. равна проиэведению вероятностей втих событий: р(А1А1. • •Ап) =р(А1)р(А.>•••р(Ап>• Док азательств о . Рассмотрим трк события: А, В и С. Совмещение событий А, В и С равносильно сов мещению событий АВ и С, поэтому Р(АВС)=Р(АВ·С). Так как события А, В и С независимы в совокуп ности, то независимы, в частности, события АВ и С, а также А и В. По те орЕ:ме умножения для двух неза- висимых событий имеем: · Р(АВ·С)=Р(АВ)Р(С) и:Р(АВ)==Р(А)Р(В}. Итак, окончательно получим Р(АВС)=Р(А)Р(/!)Р(С). Для произвольного п доказательство проводится ме тодо м математической индукции. 3амечание. Если события Ai, А1, •••, Апнезависимы в со Еjокупuости , то и противоположные им собьtтия .A't, А;, . • .,А;.так.же и-езависимы в совокупности. · Пример 2. Найти вероятнос·rь совместноrо появления герба при Одном бросании двух монет. , Реше н и е. Вероятность 11оявления rерба первой монеты (со- быт11е А) р(..4)=1/2. Вероятность появления rерба второй монеты (событие В) P(B) = l/2. События А и В независимые, поэтому искомая вероятIIость по теореме у_,ножевия рана Р (АВ)=Р (А)Р(В)=1/2·1/2=1/4• .·· Пpll lleP 3. Имеетс:J J З ящика, со.аерzащв1 1 по 10 деталей. В пер вом ящике 8, во втором 7 и в третьем 9 стандартных деталей. Из каждого ящика наудачу вы11имают по одной детали. Найти веро ятность того, что все три вы11утые детали окажутся стан.1 1 артными. :48
Реш е н и е. Вероятность того, что из первого ящика вынута стандартная деталь (событие А), Р (A) =8/l0=0,8. Вероятность того, что нз второго ящика вынута стандартная деталь (событие В), Р (В) =7/ 10=0,7 . Вероятность того, что из третьего ящика вынута стандартная деталь (событие С), Р (С) = 9/10=0,9 . Так как события А, В и С независимые в совокупности, то ис комая вероятность (по теореме · умножения) равна Р (АВС)=Р (А)Р (8)Р (С) =0,8·0,7·0,9 =0,504. Приведем пример совместного применения теорем сложения и умножения. Пример 4. Вероятности появления каждого нз трех независимых событий А1, А2, А3 соответственно равны р1, р2, р3• Найти вероят ность появления только одного из этих событий. Реш е н и е. Заметим, что, например, появление тол ь к о первого С()бытня А1 равносильно появлению события A1A°;iAa (появилось пер вое и не появились второе и третье события). Введем обозначения: В1- появилось только событие А1, т. е. 81 = А1А2А3; 82 - появилось только событие А2, т. е. В2 = А2А;А8; В3 - появилось только событие А3, т. е. В3 = А3А1А2 . Таким образом, чтобы найти вероятносrь появления только одного из событий А1, А2, А3, будем искать вероятность Р (В1 + В2+ +В3) появления одного, безразлично какого из событий 81, 82, 83• Так как события 81, В2, 88 несовместны, то применима теорема сложения (*) Остается найти вероятности каждого нз событий В1, В2, 83• / События А1, А2, А3 независимы, следовательно, независиl'i'ьl события А1, А2, А з , поэтому к ним применима теорема умножею� Я Р (81) =Р <А1А2Аз) =Р (А1) Р (А2) Р (Аз) = P1q2qa. Аналоги чно, Р (82) =Р (A2A1As) =Р <А2) Р Й1) Р Йз) =P2q1q3; Р (Вз) =Р(АаА1А2) = Р (Аз) Р (А1) Р (А2) = Psq1q2. Подставив эти вероятности в (*) , найдем искомую вероятность появ ления только одного из событий А1, А2, А3: р (В1+в2+8з) =P1q2q3+P2q1q3+p3q1q2. § 5. Вероятнос'fь пояВJ J ения хотя бы одноrо события Пусть в результате испытания могут появиться п событи й , независимых в совок у пности , л и бо некоторые из них (в частности , только одно или н и одного), п риче м :44
вероятности появления каждого из событий известны. Как найти вероятность того, что наступит хотя бы одно из этих событий? Например, если в результате испытания могут появиться три события, то появление хотя бы одного из этих событий означает наступление либо одного, либо двух , либо трех событий. Ответ на поставленный воп рос дает следующая теорема. Теорема. Вероятность появления хотя бы одного из событий А1, А2, •••, А ", независимых в совокупности, равна разности между единицей и произведением вероят- ностей противоположных событий А1, А2, • • • , Л" : Док азательств о. Обозначим через А событие, состоящее в появлении хотя бы од ного из событий А 1, А2, •••, А". События А иА1А2 •• • А" (ни одно из событий не наступило) противоположны, следовател ьно, сумма их вероятностей равна еди нице : Р(А)+Р(А1А2 ••• А")=1. Отсюда, пользуясь теоремой умножения, получим Р (А) = 1 -Р(А1А2 ••• An) = 1 -Р(А1) Р (А2) ••• Р (А"), или Р(А)=l -q1q2 ••• q". Ч астный случай. Если события Ai, А2, • ••, А " имеют одинаковую вероятность, равную р , то вероят ность появления хотя бы одного из этих событ ий Р (А)= 1-q". Пример 1. Вероятности попадания в цель при стре,льбе из трех орудий таковы: р1 = 0,8; p2=0,'l ; р3 = 0,9. Найти вероятность хотя бы одного попадания (событие А) при одном залпе из всех оруди й. Решение. Вероятность попадания в цел ь каждым из орудий не зависит от результатов стрельбы из других орудий, поэтому рас сматриваемые события А1 (попадание первого орудия) , А2 (попадание второго орудия) и Аз (попадани4� третьего орудия) независимы в со вокупности. Вероятности событий, противоположных событиям А1, А2 и Аз (т. е . вероятности промахов), соответственно равны: Ч1=l -P1=1 -0,8=0,2; q8=l-p8=1 -0,7=0,3; qз=1-рз=1 -�,9=0,1. Искомая вероятность Р (А) = 1 - Ч1Ч2Чз = 1-0 ,2 ·0,3·0,l =0,994. 45
Пример 2. В типографии имеется 4 москопечатных машины. Для каждой машины вероятность того, что она работает в данный момент, равна 0,9. Найти вероятность того, что в данны� момент работает хотя бы одна машина (событие А). , Реше н и е. Событи я смашина работает» и смашина не рабо тает» (в данный момент) -противоположные, поэтому сумма их веро ятностей равна единице: Отсюда вероятность того, что машина в данный момент не работает, равна q=1-Р=1 -0,9=0,1. Искомая вероятность Р(А) = 1 -tt'=1 -0,1'=0,9999. Так как полученная вероятность весьма близка к единице, то на основании следствия из принципа практической невозможности мало вероятных событий мы вправе заключить, что в данный момент работает хотя бы одна из машин. Пример 3. Вероятность того, что при одном выстреле стрелок попадает в цель ,·равна 0,4. Сколько выстрелов должен произвести стрелок, чтобы с вероятностью не менее 0,9 он попал в цель хотя бы один раз? Реш е н и е. Обозначим через А событие спри п выстрелах стрелок попадает в цель хотя бы един раз». События, состоящие в попадании в цель при первом, втором выстрелах и т. д ., независимы в совокупности, поэтому применима формула (•*) Р(А)=l-q11• , Приняв во внимание, что, по условию, Р (А) �0,9, р =0,4 (следова- тельно, q=1-0,4 = 0,6), получим , 1-0,611 � 0,9; отсюда 0,611 <;0,1. Прологарифмируем это неравенство по основанию 10: п lg0,6 <; lgO,l. Отсюда, учитывая, что Jg 0,6 <О, имеем п�Jg0,1/Jg 0,6 = - 1/I,7782 = -Щ-О,22f8) ==4,5. Итак, n�5. т. е. стрелок должен произвести не менее 5 вы стрелов. Пример 4. Вероятность тоrо , что событие появится хотя бы один раз в трех независимых в совокупн9сти испытаниях, равна 0,936. Н а йти вероятность поямения события в одном испытании (предпо о1 1 агается, что во всех испытаниях вероятность по�мения события одна и та же). - Реш е и и е. Так как рассматриваем.ые события независимы в совокуп ности , то применима формуо1 1 а (••) Р(А)=l .. .- q11• -46.
По условию, Р (А) = О,936; n=3. Следовательно, 0,936=1-q 3, или q3 =1 -0 ,936 =0 ,064. Отсюда q= vo.064 -0,4. Искомая вероятность p=l -q =l -0,4 =0,6. Задачи 1. Вероятность того, что стрелок при одном выстреле по падает в мишень, равна р = 0,9. Стрелок произвел 3 выстрела. Найти вероятность того, что все 3 выстрела дали Попадание. Отв. 0 ,729. 2. Брошены монета и игральная кость. Найти вероятность сов мещения событий: «ПОЯВИЛСЯ «Герб», «ПОЯВИЛОСЬ 6 ОЧКОВ». Отв. 1/12. 3. В двух ящиках находятся детали: в первом -10 (из них З стандартных) , во втором- 15 (из них 6 стандартных). Из каждого ящика наудачу вынимают по одной детали. Найти вероятность того, что обе детали окажутся стандартными. Отв. 0,12. 4. В студии телевидения 3 телевизионных камеры. Для каждой камеры вероятность того, что она включена в данный момент, равна Р=О,6. Найти вероятность того, что в данный момент вклю'!ена хотя бы одна камера (событие А). Отв. 0,936. 5. Чему равна вероятность того , что при бросании трех играль ных костей 6 очков появится хотя бьi на одной из костей (событие А)? Отв. 91/216. 6. Предприятие изготовляет 95% изделий станда ртных, причем из них 86%-первого сорта. Найти вероятность того, что взятое наудачу изделие , изготовленное на этом предп риятии, окажется пер вого сорта . Отв. 0 ,817. 7. Монета бросается до тех пор, пока 2 раза подряд она не вы падет одной и той же стороной . Найти вероятности следующих собы тий: а) опыт окончится до шестого бросания; б) потребуется четное число бросаний. · Отв. а) 15/16; б) 2/3. 8. Из цифр 1, 2, З, 4, 5 сначала выбирается одна , а затем из оставшихся четырех -вторая цифра. Предполагается, что все 20 воз можных исходов равновероятны. Найти вероятность того, что будет выбрана нечетная цифра: а) в первый раз; б) во второй раз; в) в оба раза. Отв. а) 3/5; б) 3/5; в) 3/ 10. 9. Вероятность того , что при одном выстреле стрелок попадет в десятку, равна 0,6. Сколько выстрелов дол жен сделать стрелок, чтобы с вероятностью не менее 0,8 он попал в десятку хотя бы один раз? Отв. п �2. 10. Три электрические лампочкtt: последовательно включены в цепь. Вероятность того, что одна (любая) лампочка перегорит, если напряжение в сети превысит номинальное, равна 0,6. Н айти вероят ность того, что при повышенном напряжении тока в цепи не будет. Отв. 0,936. 47
11. Вероятность того, что событие А появится хотя бы один раз при двух независимых испытаниях, равна 0,75. Найти вероятность появления события в одном испытании (предполагается, что вероят ность появления события в обоих испытаниях одна и та же). Отв. 0,5. 12. Tp!i команды А1, А2, А3 спортивного общества А состязаются соответственно с тремя командами общества В. Вероятности того, что команды общества А выиграют матчи у команд общества В, таковы: при встрече А1 с В1 -О,8; А2 с В2-0,4; А3 с В3 -0,4. Для победы необходимо выиграть не менее двух матчей из трех (ничьи во вни мание не принимаются). Победа какого из обществ вероятнее? Отв. Общества А (РА = О,544 > 1/2) . 13. Вероятность поражения цел и первым стре.11ком при одном выстреле равна 0,8, а вторым·стрелком -0,6. Найти вероятность того , что цель будет поражена тол ько одним стрелком. Отв. 0,44 . 14. Из последовательности чисел 1, 2, . . . , п наудачу одно за другим выбираются два числа. Найти вероятность того, чrо одно из них меньше целог9 положительного числа k , а другое больше k, где 1<k<п. Отв. [2[k-1)(n-k)J/[n(n-l)J. У к азани е. Сделать допущения: а) первое число < k, а второе >k;б)первоечисло>k,авторое<k. "'15. Отдел технического контроля проверяет изделия на стандарт ность . Вероятность того, что изделие нестандартно, раJ!на 0,1. Найти вероятность того, что: а) из трех проверенных изделий только одно окажется нестандартным; б) нестандартным окажется только четвертое по порядку проверенное изделие. Отв. а) 0,243; б) 0,0729. Глава четвертая СЛЕДСТВИ.Я ТЕОРЕМ СЛОЖЕНИЯ И УМНОЖЕНИЯ § 1. Теорема сложения вероятностей совместных событий Была рассмотрена теорема сложен ия для несов местных событий. Здесь будет изложена теорема сложения для совместных событи й. Два с9бытия называют совмест ными, если появление одного из них не исключает появления другого в одном и том же �пытании. · Пр"мер 1. А -появление четырех очков при бросании играль ной кости ; В-появление четного числа очков. События А и В- совм�стные. . Пусть события А и В совместны, причем даны веро ятности этих событий и вероятность их ..совместного по явления. Как найти вероятность событ ия· А + В, состоя щего в том, что роявитс� хотя бы одно из событий А и В? Ответ на этот вопрос дает теор ема сложен ия вероят ностей совместных событий. 48
Теорема. Вероятность появления хотя бЬl одного из двух совмест ных событ ий равна сумме вероятностей эт их событ ий без вероятности их совм ест ного появлен ия: Р(А+В)=Р(А)+Р(В)-Р(АВ). Доказател ьство. Поскольку события А и В , по условию, совместны, то событие А + В насту п �т, если насту пит одно из следующих трех несовместных событий: А В, АВ или АВ. По теореме сложения вероятностей несовместных событий, Р(А+В)=Р(АВ)+Р(АВ)+Р(АВ). (*) Событие А произойдет, ес ли насту пит одно из дву х несовместных событий: АВ или АВ. По теореме сложения вероятностей несовместных событий имеем Р(А)=Р(АВ)+Р(АВ). Отсюда Р (АВ) = Р (А)-Р(АВ). Аналогично имеем • Р (В)=Р (АВ) + Р (АВ). Отсюда Р (АВ) = Р (В)-Р(АВ). Подставив (**) и (***) в (*), о кончательно пол учим Р (А +В)=Р (А) +Р(В) -Р (АВ). (****) 3 а мечани е 1. При использовании полученной формулы сле дует иметь в виду, что события А и В могут быть I{aK независимыми, так и зависимыми. Для независимых событий Р (А+В)=Р (А)+Р(В)-Р(А) Р (В); для зависимых событий Р (А+В)=Р(А)+Р(В) -Р(А) РА (В). 3амечание 2.Если событияА иВ несовместны,тоихсов мещение есть невозможное событие и, следовательно, Р (АВ) =0. Формула (****) для несовместных событий п ринимает вид Р (А +В)=Р (А) +Р (В). Мы вновь получили теорему сложения для несовместных собы тий. Таким образом, формула (****) справедлива I{aK для совмест ных, так и для несовместных событий. Пример 2. Вероятности попадания в цель при стрельбе первого и второго орудий соответственно равны: р1=0,7; р2 =0,8. Найти ' 49
вероятность попадания при одном· · за лп е (из обоих орудий) хотя бы одним из орудий. . Р е ш е н и е. Вероятность попадания в цель каждым из орудий не зависит от результата стреЛьбы из другого орудия, поэтому собы тия А (попадание первого орудия) и В (попадание второго орудия) независимы. Вероятность события АВ (оба орудия дали попадание) Р (АВ) =Р (А) Р (В) =О,7·0,8 = 0,56. Искомая верG-ят ность Р (А+В)=Р (А)+Р (В)-Р (АВ) =О,7+0,8-0,56 =0,94. 3 а мечани е 3. Так как в настоящем примере события А и В независимые, то можно было воспользоваться формулой Р=l - - q1q2 (см. гл . 111, § 5). В самом деле, вероятности событий, про тивоположных событиям А и В, т. е . вероятности промахов, таковы: qi =l-P1 = 1 -0,7=0,3; q2 =l-p2=1 -0,8 =0,2. Искомая вероятность тог�. что при одном за.rше хотя бы одно орудие даст попадание, равна Р = l-q1q2 = 1-0,3·0.2 =0,94. Как и следовало ожидать, получен тот же результат. § 2. Формула полной вероятности Пусть событие А может наступить при условии появления одного из несовместных событий В1, 8 2 , ••• •, В п, которые образуют пол ную группу. Пусть известны веро ятности этих событий и усл овные вероятности Рв, (А), Р82 (А), . .., Рвп (А) событи я А. Как найти вероятность событи я А ? Ответ на , этот вопрос дает следующая теорема . Теорема . Вероятность событ ия А , которое может наступ ить лишь при условии появления одного из несо вместных событ ий В1, В2 , •••, Вп • образующих полную группу, равна сумме произведений вероятностей каждого из этих событ ий на соответствующую условную вероят ность событ ия А:· Р(А)=Р(81)Рв, (А)+Р(В2)Рв. (А)+... . . . + Р(Вп)Рвп(А). Эту формул у называют «формулой пол ной вероятности». Доказательство. Поусловию, событие А может наступить , есл и наст упит одно из несовместных событий Bi, В2, •••, В п. Другими сл овами, появл ение события А означает осуществл ение ' одного, безразл ично какого, из несовместных событий В1А , В1А , . . ., ВпА . Пользуясь 50
дпя вычисления вероятности события А теоремой сложе· ния, пол учим Р(А)=Р(В1А)+Р(В2А)+ ...+Р(ВпА). . (•) Остается :вычисл ить каждое из слагаемых . По теореме умножения вероятностей зависимых событий имеем Р(В1А)=Р(В1)Рв1 (А); Р(В1А)=Р(81)Рв,(А); ..• ; Р (ВпА) = Р (Вп) Рв" (А). Подставив правые части этих равенств в соотноше ние (*), получим формулу полной вероятности Р (А)= Р (В1) Рв1 (А)+Р (82) Рв, (А)+... . . . +Р(Вп)Рвп"<А). Пример 1. Имеется дм вабора деталей. Вероятность тоrо , что деталь первого набрра стандартна, равна 0,8, а второrо-0,9. Найти вероятность тоrо, что взятая наудачу деталь (из наудачу взятоrо набора) - стандартная. · · Ре w е н и е. Обозначим через А событие снзвлеченная деталь стандартна:.. Деталь может быtь извлечена либо из первого набора (собы тие /J1), либо из второго (событие 81) . Вероятность того, что деталь вынута из первого набора, Р(Bi)=1/2. Вероятность тоrо, что деталь вынута из второго набора, Р (В1! = 1/2. � словная вероятность того, что из первого набора будет извле· чена стандартная деталь, Рв, (А) = 0,8. Уславная вероятность того, чrо из ·Второго набора будет извле чена стандартная деталь, Р81 (А) =�,9. Искомая вероятность того, что извлеченная наудачу деталь - стандартная, по формуле полной вероятности равна Р (А)=Р (81) Рв1 (А) + Р (81) Рв1 (А)= = 0,5·0,8+0,5·0,9=0,85. Пример 2. В · первой коробке соде ржится 20 радиоламп, 11з них 18 стандартных; во второй коробке -10 ламп, из них 9 стандарт ных. Из второй коробки наудачу взята лампа и переложена в пер вую. Найти вероятность того, что лампа, наудачу извлеченная из первой коробки, будет стандартной. Реw е н не. Обозначим через А событие сиз первой коробки извлечена стандартная лампа:.. Из второй коробки могла быть извлечена либо стандартная пампа (событие 81), либо нестандартная (событие 81) . Вероятность тоrо, что из второй коробки извлечена стандартная лампа, Р (В1) = 9/10. Вероятность тоrо, что из второй коробки извлечена нестандарт. вая пампа, Р (В.) = 1/10. 51
Условная вероятность того, что из первой коробки извлечена стандартная лампа, при услории, что из второй коробки в первую была переложена стандартная лампа. равна Р8, (А) = 19/21. Условная вероятность того, что из первой коробки извлечена стандартная лампа, при условии, что из второй коробки в первую была переложена нестандартная лампа, равна Рв, (А)=18/21 . Искомая вероятность того, что нз первой коробки будет извле чен� стандартная лампа, по формуле по.'I ной вероятности равна Р (А) = Р (В 1) Рв, (А)+Р(В2) Рв. (А) = (9/10)·(19/21)+ +(1/10).(18/21)=0,9. § З. Веро ятность гипотез. Формулы Бейеса Пусть событие А может наступить при условии появления одного из несовместных событий В1, В2 , •• •, Вп • образующих полную группу. Поскольку заранее не из вестно, какое из этих событий наступит, их называют гипотезами . Вероятность появления события А опреде ляется по формуле полной вероятности (см. § 2): Р(А)=Р(В1)Рв,(А)+Р(В2)Рв.(А)+... ... +Р(Вп) Рвп (А) . (*) · Допустим, что произведено испытание, в результате которого появилось событяе А. Поставим своей задачей определ ить, как измен ились (в связи с тем, что собы тие А уже наступило) вероятности гипотез. Другими словами, будем искать условные вероятности РА(В1), РА(В2), • • •• РА(Вп)• Найдем сначала условную вероятность РА (В1). По теореме умножен ия имеем Р(АВ1)=Р(А)РА(В1)=Р(В1)Рв,(А). Оrсюда р' (В) _ Р(В1)Рв,(А) Аi-. р(А) • Заменив здесь Р (А) по формуле (*) , получим . Р (В1) Рв, (А) р А(В1)=р(В1)Рв,(А)+Р(В2)Рв,(А)+• • • +Р(Вп)Рвп(А)• Аналогично выводятся формулы, определ яющие усJiов ные вероятности остальных гипотез, т. е . условная веро ятность любой гипотезы В1 (i = 1,2, ..• , п) может быть 52
вычислена по формуле Р (В·;) Рв ;(А) рА (В;)=Р (В1) Рв, (А)+Р(В2) Рв. (А)+•..+Р (Вп) Рвпl(А) • Полученные формулы называют формулами Бейеса (по имени английского математика, который их вывел ; опубликованы в 1764 г.) . Формулы Бейеса позволяют переоценить вероят,ности гипотез после того, как ста новится извест ным резул ьтат испытания, в итоге кото рого появилось событие А. Пример. Детали, изготовляемые цехом завода, попадают для проверки их на стандартность к одному из двух контролеров. Веро ятность того, что деталь попадает к первому контролеру, равна 0,6, а ко второму -0,4. Вероятность того, что годная деталь будет приз нана стандартной первым контролером, равна 0,94, а вторым-0,98. Годная деталь при проверке была признана стандартной. Найти вероятность того, что эту деталь проверил первый контролер. Решение. Обозначим через А событие, состоящее в том, что годн ая деталь признана стандартной. Можно сделать два предполо жения: 1) дета ль проверил первый контролер (гипотеза В1); 2) деталь проверил второй контролер (гипотеза В2). Искомую вероятность того, что деталь проверил первый контро лер, найдем по формуле Бейеса: Р (В1) Рв, (А) рА <81> = р (В1) Рв, (А)+р (82) Рв. (А) • · По условию задачи имеем: Р (81) = 0,6 (вероя'Гность того, что деталь попадает к первому конт ролеру); Р (82) = 0,4 (вероятность того, что деталь попадет ко второму конт ролеру); Рв, (А) = 0,94 (вероят1;юсть того, что r·одная деталь будет признана первым контролером станда ртной); Рв , (А) =0,98 (вероятность того, что годная деталь будет признана вторым контролером стандартной). Искомая вероятность рА (81) = (0, 6 · 0,94)/(0,6 · 0,94+0,4 ·0,98) � 0,59, Как видно, до испытания вероятность гипотезы 81 равнялась 0,6, а после того, как стал известен результат испытания, вероятность этой гипотезы (точнее, условная вероятность) изменилась и стала рав ной 0,59. Таким образом, использование формулы Бейеса позволило переоценить вероятность рассматриваемой гипотезы. Задачи 1. Два стрелка произвели по одному выстрелу. Вероят ность попадания в мишень первым стрелком равна 0,7, а вторым - 0,6. Найти вероятность того, что хотя бы один из стрелков попал · в мишень. Отв. 0,88. 53
2. У сборщика имеется 1� деталей, изгоrовпенных заводом Ni 1, и 4 детали завода М 2. Наудачу взяты 2 детали. Найти вероятность того, что хотя бы одна из ни1С окажется изrоторленной заводом М 1. Отв. 92/95. , 3. В группе спортсменов 20 лыжников, 6 велосипедистов и 4 бе гуна. Вераятность выполнить квалификационную норму такова: для лыжника -0,9, для велосипедиста-0,8 и для бегуна- 0,75. Найти вероятность того , что спорrсмен, выбранный наудачу, выполнит норму. Отs. 0,86• i 4. Сборщик получил 3 iКОробкн деталей, изrотов.чеиных заво дом N!! 1, и 2 коробки детал�й, изготовленных заводом М 2. Вероят· иость того, что деталь завода N11 1 стандартна, равна 0,8, а завода М 2-0,9, Сборщик наудачу извлек детал ь из наудачу взятой ко робки . Найти вероятность tого , что извлечена стандартная деталь. Отв. 0,84. : 5. В первом ящике содержится 20 деталей, из них 15 стандарт• ных; во втором -30 деталей, из них 24 стандартных; в третьем - 10 деталей, из них 6 стандартных. Найти вероятность того, что наудачу извлеченная деталь !из наудачу взятого ящика-стандартная. Отв. 43/60. • 8. В телевизионном ателье имеется 4 кинескопа. Вероятности тоrо, что кинескоп выде ржит гарантнй11ый срок службы, соответст венно равны 0,8; 0,85; 0,9; Q,95. Найти вероятность того, что взятый наудачу кинескоп вы.nержит ,гарантийный срок службы. Отв. 0,875. • 7. В двух ящиках имеюtся радиолампы. В первом ящике содер· жится 12 ламп, Из них l нестандарт,ная; во втором 10 ламп, из них 1 нестандартная. Из первоф ящика нау.аачу взята лампа и перело· жена во второй. Найти вероятность того, что наудачу извлеченная из второго ящика пампа будет нестандартной. · Отв. 13/132. . 8. Из полного набора· 2� костей домино наудачу извлечена кость. Найти вероятность того, что втор ую извлеченную наудачу кость можно приставить к первой.1 Отв. 7/18. . 9. Сту.аент знает не все экзаменационные билеты . · в каком слу· чае вероятность вытащить н�известный билет будет для него наимень шей: когда он берет билет nервым или последним? 011 18 . Вероятности одинаковы в обоих случаях. 10. В ящик, содержащ�,�й 3 оди наковых детали, брошена стан дартная деталь. а затем нау.а а чу извлечена одна деталь. Найти вероятность того, что извле�еиа стандартная деталь, ее.пи равноверо ятны все возможные предположения о числе стаи4артвых деталей. первоначально нахо.АЯЩНхс� в ящике. Oms. 0 ,625. , 11. При отклонении от нормального режима работы автомата срабатывает сигнализатор С-1 с вероятностью о.в. а сиrнапизатор С-1 1 срабатывает с вероят,остью 1. Вероятности тоrо, что автомат снабжен сиrнали затором (i:-1 или С-1 1, соответственно равны 0,6 и 0,4. Получен сигнал о разделке автомата. Что вероятнее: автомат снабжен сигнализатором C·J или С-1 1? · Отs. Вероятность того , что автомат снабжен сиrиализатором С- 1, равна 6/11, а С-11-5/11. ' �
12. Для участия в студенческих отборочных спортивных соревно ваниях выделено из первой группы курса 4, из второй - 6, из третьей группы-5 студентов. Вероятности того, что студент первой, второй и третьей группы попадает в сборную института, соответственно равны 0,9; 0,7 и 0,8. Науда чу выбранный студент в итоге соревно вания попал в сборную. К какой из групп вероятнее всего принад лежал этот студент? Отв. Вероятности того , что выбран студент первой, второй, тре тьей групп, соответственно равны: 18/59, 21/59, 20/59. 13. Вероятность для изделий некоторого производства удовлетво рять стандарту равна 0,96. Предлагается упрощенная система про верки на стандартность , дающая положительный реэу.пьтат с вероят· ностью 0,98 для изделий, удовлетворяющих стандарту, а для изде лий, которые не удовлетворяют стандарту,- с вероятностью 0,05. Найти вероятность того, что изделие, признанное при проверке стандартным, действительно удовлетворяет стандарту. Отв. 0 ,998. Глава пятая ПОВТОРЕНИЕ ИСП ЫТАНИЙ § 1. Формула Бернулли Если производится несколько испыт анцй, при чем вероятность события А в каждом испытании не за висит от исходов других испытаний, то такие испытания называют независимыми относительно событ ия А. В разных независимых испытаниях событие А может иметь либо различные вероятности, либо одну и ту же вероятность. Будем далее рассматривать лишь такие независимые испытания, в которых событие А имеет одн у и ту же вероятность. Ниже воспользуемся понятием сложного события, по нимая под ним совмещение нескольких отдел ьных собы тий, которые называют простыми . Пусть производится п независимых испытаний, в каж дом из которых событие А может появиться либо не появиться. Условимся считать, что вероятность собы тия А в каждом испытании одн а и та же, а именно равна р . Следовател ьно, вероятность ненаступления со бытия А в каждом испытании также постоя нна и равна q=l-p. Поставим перед собой задачу вычислить вероятность того, что при n испытаниях событие А осуществится ровно k раз и, следовательно, не осуществится n-k раз. Важно подчеркнуть, что не требуется, чтобы событие А повторилось ровно k раз в определенной последователь- 65
ности . Например, если речь идет о появлении события А три раза в четырех испытаниях , то возможны следующие сложные события: АААА, АААА, АААА, АЛАА. Запись АААА означает, что в первом, втором и третьем испы таниях событие А наступило, а в четвертом испыта нии оно не появилось, т. е . наступило противоположное со- быт'Ие А; соответственный смысл имеют и другие записи. Искомую вероятность · обозначим Рп (k). Например, символ Р6 (3) означает вероятность того, что в пяти и:спытаниях событие появится ровно 3 раза и, следова тельно, не наступит 2 раза . Поставленную задачу можно решить с помощью так называемой формулы Бернулли . Вывод формулы Бернулли. Вероятность од ного слож ного события, состоящего в том, что в п испытаниях событие А наступит k раз и не наступит n - k раз, по теореме умножения вероятностей независимых событий равна pkq n - k . Таких сложных событий может быть стол ько, сколько можно составить сочетаний из п эле ментов по k элементов, т. е. С�. Так как эти сложные события несовместны, то по теореме сложения вероятно стей несовместных событий искомая вероятность равна сумме вероятностей всех возможных сложных· событи й. Поскольку же вероятности всех этих сложных событий оди наковы, то искомая вероятность (появления k раз со бытия А в п испытаниях) _ равна вероятности однщ·о сложного события, умноженной на их число : · рп (k) = C1j,pkqn-k - ил� рп(k)=kl (n n '_k)Ipkqn-k . Полученную формулу называют формулой Бернулли . Пример. Вероятность того, что расход электроэнергии в продол жение одних суток не превысит установленной нормы, равна р=О,75. Найти вероятность того, что в ближайшие 6 суток расход электро энергии в течение 4 суток не превысит нормы. Реш е н и е. Вероятность нормального расхода электроэнергии в продол жение каждых из 6 суток постоянна и равна р=О,75. Сле довательно, вероятность перерасхода электроэнергии в каждые сутки также постоянна и равна q =l-p =l-0 ,75 =0,25. Искомая вероятность по формуле Бернулли равна Р8 (4) =C:p4q2 =C=p4q2 =�:;(О,75)4. (0 ,25)11 =0,30. 56
§ 2. Локальная теорема Лапласа Выше была выведена формула Бернулли , позво ляющая вычислить вероятность того, что событие появится в п испытаниях ровно k раз. При выводе мы предпола гали, что вероятность появления событи я в каждом ис пытании постоянна. Легко видеть, что пользоваться формулой Бернулли при больших · значениях п достаточно трудно, так как формула требует выполнения действий над громадными числами. Например, если п = 50 , k = 30, р = О , 1, то для отыс кания вероятности Р6 0 (30) надо вычислить выражение Р00 (30) = 501/(30!20!) . (О, 1 )з0 • (О, 9)20, где 501=30414093·10�7, 30! =26525286· 1026,201 = = 24329020·1011 • Правда, можно несколько упростить вычисления, пользуясь специальными таблицами лога рифмов факториалов. Однако и этот путь остается громоздким и к тому же имеет существенный недостаток: таблицы содержат приближенные значения логарифмов, поэтому в процессе вычислений накапливаются погреш ности ; в итоге окончател ьный результат может значи тельно отличаться от истинного. Естественно возникает вопрос : нельзя ли вычислить интересующую нас вероятн ость , не прибегая к формуле Бернулли? Оказывается, можно. Локальная теорема Лапласа и дает асимптотическую *> формул у, которая позволяет приближенно найти вероятность появления собь1 1: ия ровно k раз в п испытаниях, если число испы таний достато чно велико. Заметим, что для частного случая, а именно для р = 1/2, асимптотическая формула была найдена в 1 730 г. Муавром; в 1783 г . Лаплас обобщил формулу Муавра дл я произвольного р, отличного от О и 1. Поэтому тео рему, о которой зд есь идет речь, иногда называют теоремой Муавра - Ла пласа . Доказательство локальной теоремы Лапласа довол ьно сложно, поэтому мы приведем лишь формулировку тео ремы и примеры, иллюстрирующие ее использование. Локальная теорема Лапласа. Есл и вероятность р появ ления событ ия А в каждом испытании постоянна и отлична от нуля и единицы, то вероятность Рп (k) того, *1 Функцию ер (х) называют асимптотическим приближением функции f(x) , если lim f (х) = 1. %-+ � ср(х) 57
что событие А появится в п испытаниях ровно k раз, пр иближенно равна (тем точнее , чем больше п) значению функции у= 1• _1_ е - х•/2 - 1 •q>(х) Уnpq У2n - уnpq при x =(k -np)/Vnpq. Имеются таблицы, в которых помещены значения 1 функции q> (х) = "r- е - х•12 , соответствующие положитель- r 2n ным значениям аргумента х (см. приложение 1). Для отрицательных значений аргумента польз уются теми же таблицами, так как функция q>(x) четна, т. е. с:р ( -х) = с:р(х) . Итак, вероятность того, что событие А появится в п независимых испытаниях ровно k раз, приближенно равна 1 Рп(k)�у · с:р(х), npq где X = (k-np)/ynpq. . Пример 1. Найти вероятность того, что событие А наступит ровно 80 раз в 400 испытаниях, если вероятность появления этого события в каждом испытании равна 0,2. Решение. По условию, n=400; k=80; р =О,2; q=0,8. Вос пользуемся асимптотической формулой Лапласа: р (80':: :: : 1 ()1() 400 ' у400.о,2 .о,8 ·<i> х =-в·<�> х . Вычислим определ яемое данными задачи значение х: x=(k-np)/ У npq =(80 - 400 .0,2)/8 =0. По таблице приложения 1 находим <р (О) =0,3989. Искомая вероятность Р400 (80)=(1/8) · 0 ,3989 =0,04986 . Формула Бернулли приводит примерно к такому же резу..nьтату (выкладки ввиду их громоздкости опущены): Р,00 (80) =0,0498. Пример 2. Вероятность поражения мишени стрелком при одном выстре.пе р =0,75. Найти вероятность того, что при 1О выстрелах стрелок поразит мишень 8 раз. Решение. По условию, n=IO; k=8; р=О,75; q=0,25. Воспользуемся асимптотической формулой Лапласа: 58 1 Р19 (8) :: ::. . у • ер (х) =0,7301 ·ср (х). 10.0,75 ·0,25
Вычис.1 им оп ределяемое данными задачи значение х: k- пр х Jfnpq 8-10-0,75 ::>=О 36. YI0-0,75 -0 ,25 ' По таблице при,1ожения 1 находим <р (0,36) =0,3739. Искомая вероятность Р10 (8) =0,730 1 -0,3739 = 0,273. Формула Бернулли приводит к иному результату, а, именно Р10 (8) = 0 ,282. Столь значительное расхождение ответов объясняется тем , что в настоящем п римере п имеет малое значение (формула Лапласа дает достаточно хорошие п риближения лишь при достаточно больших значениях п). § 3. Интеrра.льная теорема Лап.ласа Вновь предположим, что производится п испы таний, в каждом' из которых вероятность появления события А посто янна и равна р (О < р < 1). Как вычис· лить вероятность Рп (k1, ka) того, что событие А появится в п испытаниях не менее ki и не более ka раз (для крат· кости будем говорить «от k1 до ka раз»)? На этот вопрос отвечает интегральная теорема Лапласа, которую мы пр1tводим ниже, опустив доказательство. Теорема. Есл и вероятность р наступления события А в каждом испытании постоянна и отлична от нуля и единицы, то ве роятность Рп (k1, k2) того , что событ ие А появится в п испытаниях от k1 до k2 раз, приближен но равна определенному интегралу 1(' Рп(k1, k,.)�..} 2n Se-z•/2 dz, Х' где х' =(ki-np)/V npq и Х' =(k2 - пp)/Vfijiq. При решении задач, требующи·х применения интеграль- · ной теоремы Лапласа, пользуются специальными табл и- цами, так как неопредеЛенный интеграл S e-z•12 dz не выражается 11ерез элементарные функции. Таблица для 1' . 1 r интеграла Ф (х) = у2 п J e-z•12 dz приведена в конце книги (см. приложение 2). В таблице да�ы значения функции Ф (х) для положительных значений х и для х =О; для ;& < О пользуютс я той же таблицей [функция Ф (х) не- .59
четна, т. е. Ф(-х)= - Ф(х)]. В таблице приведены значения интеграла лишь до х = 5, так как для х > 5 можно принять Ф (х) = 0,5. Функцию Ф (х) часто называют функцией Лапласа . Для того чтобы можно было пользоваться таблицей функции Лапласа, преобразуем соотн ошение (*) так: о )(' рп(kн kз)!: :: :! })2nsе-z•/зdz+ Jf,. .12 n sе-z•/зdz= х' О Х" х' =- 1 - s e-z•12 dz--1-s e-z•;z dz = Ф (х")-Ф (х'). V2n V2n о о Итак, вероятность того, что событие А появится в п независимых испытан иях от k1 до k2 раз. Рп (k1, k2) !: :: :! Ф (х")-Ф (х' ), где х' = (k1 - np)/Vnpq и х" = (k2 - np)/Vnpq. Приведем примеры, иллюстрирующие применение ин тегральной теоремы Лапласа. Пример. Вероятность того, что детал ь не прошла проверку ОТК, равна р = О,2. Найти вероятность того, что среди 400 случайно ото бранных деталей окажется непроверенных от 70 до 100 деталей. Р ешение. По условию, р=О,2; q=0,8; n=400; k1 =70; k2 = 100. Воспользуемся интегральной теоремой Лапласа: Р400 (70, 100) � Ф (х") -Ф (х'). Вычислим нижний и верхний предел ы интегрирования: х' k1-np _ 70 -400 .О,2 _ 1,25; уnpq - у400.о,2 .о,8 "_ k2-np 100-400 .О,2 _2 5 Х- - t• упрq у400.0,2.0,8 Таким образом, имеем Р400(70, 100)=Ф (2,5)-Ф(-1,25)=Ф (2,5)+Ф(1,25)• . По таб.пице приложения 2 находим: ф (2,5) = 0,4938; ф (1 ,25) = 0,3944. Искомая вероятность Р400 (70, 100) =0,4938 +0,3944 =0,8882 . 3 а м е ч а н н е. Обозначим через т число появлений события А при п независимых испытаниях, в каждом из которых вероятность наступления события А постоянна и равна р. Если число т изме- няется от ki до k2 , то дробь (т-пр)/ У npq изменяется от (k1- np)/Jfnpq =x' до (k2-пр)/ У npq =x" . Следовательно, интег- 60
ральную теорему Лапласа можно записать и так: 1(' Р(х' <; ; т- п р.s; ;; ;; x" ) �_.!_fe-z•/1dz. У npq Y2n х' Эта форма записи используется ниже. · § 4. Вероятность отклонения относительной частоты от постоянной вероятности в независимых испытаниях Вновь будем считать, что производится п неза висимых испытаний, в каждом из которых вероятность появления события А постоянна и равна р (О < р < 1 ). Поставим перед собой задачу найти вероятность того, что отклонение относительной частоты m/n от постоя нной вероятности р по абсолютной вел ичине не превышает заданного числа е > О. Другими словами, найдем веро ятность ос уществления неравенства lm/n-pl�e. (*) Эrу вероятность будем обозначать так: Р (1 m/n -p 1 � е). Заменим неравенство (*) ему равносильными : - e � m/n-p�e или -е�(т -пр)/п �е. Умножая эти неравенства на положител ьный множитель Vn/(pq), получим неравенства, равносильные исходному : - е V n/(pq)� (т - пр)/Vnpq� е Vn/(pq). Воспользуемся интегральной теоремой Лапласа в фор ме, указанной в замечании (см. § 3). Положив х' = = - еVn/(pq) и х" = еVn/(pq), имеем Р (- е Vn/(pq)�(m-np)/Vfi'P(i�еVn/(nq))� е У n/(pq) е У n/(pq) �-- s e- z •/2dz=-2 - s e-z•/2dz = Y2n У2П - eY'i i/(j j'q) о = 2Ф (е Vn/(pq)). Наконец, заменив неравенства, заключенные в скобках , равносильным им исходным неравенством, окончательно пол учим P(lm/n -p l�e) � 2Ф (е V n/(pq)). 61
Итак, вероятность осуществления неравенства lm/n-pl�e приближенно равна значению удвоенной функции Лапласа 2Ф (х) при х = eV n/(pq). Пример 1. Вероятность того , что деталь не стандартна, р=О,1. Найти вероятность того, что среди случайно отобранных 400 деталей относительная частота появления нестандартных деталей отклонится от вероятности P=O,l по абсолютной величине не более чем на 0,03. Реш.е ние. По условию, n =400; p=O,l; q=0,9; 8 =0,03. Тре буется найти вероятность Р ( 1 m/400-0,I I <;О,03). Пользуясь форму лой P(jm/n-p\<;8) � 2Ф (8 Yn/(pq>), имеем Р (/ m/400-0,I f <; 0,03) � 2Ф (0,03 У400/(0,l ·0,9))=2Ф (2). По таблице приложения 2 находим Ф (2) =0,4772. Следовательно, 2Ф (2) =0,9544. Итак, искомая вероятность приближенно равна 0,9544. Смысл полученного результата таков: · если взять достаточно большое число проб по 400 деталей в каждой, то примерно в 95,44% зтнх проб отклонение относительной частоты от постоянной вероят ности р=О,1 по абсолютной величине не превысит 0,03. Пример 2. Вероятность того, что деталь не стандартна, р=О,1. Найти, сколько деталей надо отобрать, чтобы с вероятностью, равной 0,9544, можно бЬ1Ло утве рждать, что относительная частота появления нестандартных деталей (среди отобранных) отклонится от постоянной вероятности р по абсолютной величине не более чем на 0,03. Решение. По условию, p=O,l; q=0,9; 8 =0,03; P(lm/n -0, I 1< <;О,03) =0,9544. Требуется найти n. Воспользуемся формулой Р(1m/n-p1.<8) :: :: : 2Ф (8 Уn/(pq>) . в сипу условия 2Ф (0,03 Уn/(0,l · 0 ,9)} =2Ф (0,1 Yn) =;О,9544. Следовател ьно, Ф (0,1 Yn) = 0,4772. . По таблице прИJ J ожения 2 находим Ф (2) = 0,4772. . Дпя отыскания ·числа п получаем уравнение 0,1 Yn==2. Оrсюда искомое число деталей n=40 0 . Смысл полученного результата таков: если взять достаточно большое число проб по 40 0 деталей, то в 95,44% зтих проб относи тельная частота появления иеставдартных деталей будет отличаться от постоянной вероятности р = 0, 1 по абсолютной величине не более чем на 0,03, т. е . относительная частота заключена в границах от 0,07 (0,1 -0 ,03==0,07) до О,IЗ (О. 1 +0.оз -о, 1з). Друrн11и словами, число неста ндартных деталей в 95,44% проб будет заключено между .28(7%от40 0 )и52(13%от40 0 ). ' Если взять лишь одн у пробу из 40 0 деталей, то с большой уверенносТью можно ожвдать, что в зтой пробе будет нестандартных АеТ&1 1 ей 11е менее 28 и не более 52. Возможно, хотя и маловероятно, что нестандартных Аета.пей окажется меньше 28 либо бопьше 52. 62
Задачи 1. В цехе 6 моторов. Для каждого мотора вероятность того, что он в данный момент включен, равна 0,8. Найти вероятность того , что в данный момент: а) включено 4 мотора; б) включены все моторы; в) выключены все моторы. Отв. а) Ре (4)=0,246; б) Ре (6)=0,26; в) Ре (0)=0,00 0064 . 2. Найти вероятность того, что событие А появится в пяти не зависимых испытаниях не менее двух раз, если в каждом испытании вероятность появления события А равна 0,3. Отв. Р= l-[P6 (О) + Р11 (1)] =0,472. з. Событие В появится в случае, если событие А появится не менее двух раз. Найти вероятность того, что наступит событие В, если будет произведено 6 независимых испытаний, в каждом из которых вероятность появления события А равна 0,4. Отв. Р= 1 - [Ре (О)+Ре (1)] = 0,767. 4. Произведено 8 независимых испытаний, в каждом из которых вероятность появления события А равна 0,1. Найти вероятность того, что событие А появится хотя бы 2 раза. Отв. P=l - [P8 (0)+P8 (1)] =0, 19. 5. Монету бросают 6 раз. Найти вероятность того, что герб вы падет: а) менее двух раз; б) не менее двух раз. Отв. а) Р=Ре (О)+Ре(1) =7/64; б) Q=l -[P 8 (О) +Р8(1)} = 57/64. 6. Вероятность попадания в цел ь при одном выстреле из оруди я р =О,9. Вероятность поражения цели при k попаданиях (k ;; ;; ;, 1 ) равна 1-qk. Найти вероятность того, что цель будет поражена, если сд� лано два выстрела. У к а з а н и е. Воспользоваться формулами Бернулли и полной вероятности. Отв. 0,9639. 7. Найти приближенно вероятность того, что при 400 испыт�ниях событие наступит ровно 104 раза, если вероятность его появления в каждом испытании равна 0,2. Отв. Р400 (104) =0, 0006. 8. Вероятность поражения мишени стрелком при одном выстреле равна 0,75. Найти вероятность того, что при 100 выстрелах мишень. будет поражена: а) не менее 70 и не более 80 раз; б) не более 70 раз. Отв. а) Р100 (70,80) =2Ф (l,15)=0 ,7498 ; б) Р100 (0; 70)= -Ф(l , 15)+0,5 =0,1251 . 9. Вероятность появления события в каждом из 10ООО независи мых испытаний р =О,75. Найти вероятность того, что относительная частота появления события отклонится от его вероятности по абсо дютной величине не более чем на 0,001. Отв . Р=2Ф(О,23) =0, 182. 10. Вероятность появления события в каждом из независимых испытаний равна 0,2. Найти, какое отклонение относительной частоты появления события от его вероятности можно ожидать с вероятностью 0,9128 при 5000 испытаниях. Отв. е =О,00967 . 11. Сколько раз надо бросить монету, чтобы с вероятностью 0,6 можно бЫJiо ожидать , что отклонение относительной частоты появле ний герба от вероятности Р =О,5 окажется по абсолютной величине не более 0,01? Отв. п =1764.
ЧАСТЬ ВТОРАЯ СЛУЧАЙНЫЕ ВЕЛИЧИНЫ Глава шестая В ИДЫ СЛУЧАЙНЫХ ВЕЛИЧИН. ЗАДАНИЕ ДИСКРЕТНОЙ СЛУЧАЙНОЙ ВЕЛИЧИНЫ § 1. Случайная величина Уже в первой части приводились события, со стоящие в появлении того или иного ч и ела. Например, при бросании игральной кости могли появиться числа 1, 2, 3, 4, 5 и 6. Наперед определить число выпавших очков невозможно, поскол ьку оно зависит от многих случайных причин, которые полностью не могут быть учтены. В этом смысле число очков есть величина случа йная; числа 1, 2, 3, 4, 5 и 6 есть возможные значения этой величины. Случ ай ной называют величи ну, которая в результате испытания примет одно и только одно возможное зна'9:е ние, наперед не известное и зависящее от случайных причин, которые заранее не могут быть учтены. Пример 1. Ч исло родившихся мальчиков среди ста новорожден ных есть с.11учайная величина, которая имеет следующие возможные значения: О, 1, 2, .•., 100. Пример 2. Расстояние, которое пролетит снаряд прн выстреле из орудия , есть сл учайная величина. Действительно, расстояние зависит не тол ько от установки прицела, но и от многих других причин (силы и направления ветра , температуры и т. д.), которые не могут быть полностью учтены. Возможные значения этой величины принад· лежат некоторому промежутку (а , Ь). · / Будем далее обозначать случайные величины пропис ными буквами Х, У, Z , а их возможные значен ия - соот ветствующими строчными буквами х, у, z. Например, если сл учайная величина Х имеет три возможных значе ния, то они будут обозначены так : х1, х2, Х8• 64
§ 2. Дискретн ые и непрерывные случайные величины Вернемся к примерам, приведенным выше. В пер вом из них случай ная величина Х могла принять одно из следующих возможных значений: О, 1, 2, ... , 100. Эти значени я отделены одно от другого промежутками, в которых нет возможных значений Х . Таким образом, в этом примере случайная величина принимает отдел ьные, изолированные возможные значения. Во втором примере случайная вел ичина могла прин ять любое из значений промежутка (а, Ь). Здесь не.пьзя отделить одно возможное значение от другого промежутком, не содержащим воз можных значений случай ной величины. Уже из сказанного можно заключить о целесооб разно сти различать случайные величины, прини мающие лишь отдел ьные, изолированные значения, и случайные вели чины, возможные значения которых сплошь заполняют некоторый промежуток. Дискретной (прерывно й) называют случа йную вели чину, кото рая принимает отдельные, изоли рованные воз можные значен ия с оп ределенными вероятностями. Число возможных значений диск ретной случа йной величины может быть конечным или бесконечным. Непрерывно й на зывают случайную величин у, кото рая может принимать все значения из некоторого конечного и л и бесконечного промежутка . Очевидно, число возмож ных значений непрерывной случайной величины беско нечно. 3 а меч ани е. Настоящее епределение непрерывной сл учайной вел и чины не является точным. Более строгое определение будет дано позднее. § 3. Закон распределения вероятностей дискретной случайной вели чины На первый взгляд может показаться, что дл я задания дискретной случайной величины доста точно пере числить все ее возможные значения . В действительности это не так: сл учайные веJшчины могут иметь оди н а к о в ы е перечни возможных значени й, а вероятности их - разл и ч н ы е. Поэтому для задания диск ретной сл учай ной величины недостаточно перечислить все возможные ее значения, нужно еще указать их вероятности. 3-2 10 65
Законом распределен ия дискретной случайной ееличины называют соответствие между возможными значениями и их вероятностя ми; его можно задать таблично, анал ити чески (в виде формулы) и графически. При табличном задании закона распредел ения дискрет IJОЙ случайной вел ичины первая строка таблицы содержит возможные значен ия, а втора я-их вероятности : ХХ1Х2 Хп РР1Р2· ·· Рп Приняв во внимание, что в одном испытании случайная величина принимает- одно и только одно возможное зна чение, заключаем, что события Х =х1, Х =х2, •••, Х =Хп образуют полную группу; следовател ьно, сумма вероят ностей этих событий, т. е. сумма вероятностей второй строки таблицы, равна единице: Р1+Р2+·· ·+Рп=1. Если множество возможных значен ий Х бесконечно (счетно), то ряд р1 + р2 + ... сходится и его сумма равна еди нице. Пример. В денежной лотерее выпущено 100 билетов. Разыгры вается один выигрыш в 50 руб. и десять выигрышей по 1 руб. Найти закон распределения случайной величины Х -стоимости возможного выигрыша для владельца одного лотерейного билета. Решение. Напишем возможные значения Х: х1 = 50, х2 = 1, х3 = О. Вероятности этих возможных значений таковы: р1=0,01 , Р2 =0,01 , Рз= 1 -(Р1+Р2) =0,89. Напишем искомый закон распределения: х50 10 о р 0,01 О,1 0,89 К:онтроль: 0,01 +0,1 +0,89 =1. Для наглядности закон распредел ения дискретной случайной величины можно изобразить и графически, для чего в прямоугольной системе коорди нат строят точ ки (x i, pJ, а затем соединяют их отрезками прямых. Полученную фигуру называют многоугольни ком распре деления. § 4. Биномиальное распределение Пусть производится п независимых испытаний, в каждом из которых событие А может появиться либо не появиться. Вероятность настуш1ения события во всех 66
испытаниях постоянна и равна р (следовательно, uероят ность непоявления q = 1 -р). Рассмотрим в качестве дискретной случайной величины Х число появлений со бытия А в этих испытаниях. Поставим перед собой задачу: найти закон распреде ления величины Х . Дл я ее решения требуется определить возможн ые значения Х и их вероятности. Очевидно, событие А в п испытаниях может либо не появиться, либо появиться 1 раз, либо 2 раза, ..., либо п раз. Таким образом, возможные значения Х таковы: х1 = О , х2 = 1, х3 = 2, ... , хп+� = п. Остается найти вероятности эти х возможных значений, для чего достаточно восполь зоваться формулой Бернул ли: гдеk=О, 1,2, ..., п. Формула (*) и является аналитическим выражением искомого закона распределения. Биномиальн ым называют распределение вероятностей, определяемое формулой Бернулли. Закон назван «бино миальным» потому, что правую часть равенства (*) можно рассматривать как общий член разложен ия бинома Ньютона: (р + q)п = С�рп + C�-1pn-1q + ...+ C�pkqn-k+ .. . +С�qп . Таким образом, первый член разложения pn опреде ляет вероятность наступления рассматриваемого события п раз в п независимых испытаниях; второй член пpn - 1q определ яет вероятность наступления события п- 1 раз; . ..; последн ий член qn определ яет вероятность того, что событие не появится ни разу. Напишем биномиальный закон в виде табл ицы: Хпп-1 р pn пpn-lq о Пример. Монета брошена 2 раза. Написать в виде таблицы закон распределения случайной величины Х - числа выпадений «герба». Реш е н и е. Вероятность появления «герба» в каждом бросании монеты р = 1 /2 , следовательно, вероятность непоявления «Герба.» q=1 -1/2==1/2. При двух бросаниях монеты «герб» может появиться либо 2 раза, либо 1 раз, либо совсем не появиться. Таким образом, возможные значения Х таковы: х1 =2, х2 = 1, х3 =О. Найдем вероятности этих 67
возможных значений по формуле Бернулли: Р2 (2) = С�р2 = (1/2) 2 =0,25, Р2 (1) =C�p q=2· (1/2) · (1/2) = 0,5, Р2 (0) =C�q2 =(1/2) 2 =0,25. Напишем искомый закон расп ределения: х 2 1 о р 0,25 0,5 0,25 К онт роль: О,25+о,5+ О,25 = 1. § 5. Распределение Пуассона Пусть производится п независимых испытаний, в каждом из которых вероятность появления события А равна р. Для определения вероятности k появлений со бытия в этих испытаниях используют формулу Бернулли. Если же п велико, то пользуются асимптотической фор мулой Лапласа . Однако эта формула непригодн а, если вероятность события мала (р �О, l). В этих случаях (п велико, р мало) прибегают к асимптотической формуле Пуассона. Итак, поставим перед собой задачу найти вероятность того, что при очень большом числе испытаний, в каждом из которых вероятность события очень мала, событие наступит ровно k раз. Сделаем важное допущен ие: про изведение пр сохраняет постоянное значение, а именно nр ='Л . Как будет следовать из дальнейшего (см. гл . Vll, § 5), это означает, что среднее число появлений события в различных сериях испытаний, т. е . при различных значениях п, остается неизменным. Воспользуемся формулой Бернулли для вычисления интересующей нас вероятности : . рп(k)= п(п-1)(n-2�j ..[n-(k-1)]pk(l-p)n-k, Так как рп = Л, то р = 'Л/п. Следовательно, Рп(k)= п(п-1)(п-� 1 •••[n-(k- 1)) (�У(l-�y-k . Приняв во вн иман ие, что п имеет очень большое значе ние, вместо Рп (k) найдем lim Рп (k). При этом будет най- п-"" депо лишь приближенное значение отыс киваемой вероят- ности: п хотя и велико, но конечно, а при отыскании 68
предела мы устремим п к бесконечности . Заметим, что поскольку произведение пр сохраняет постоянное значе ние, то при п--+ оо вероятность р-+О. Итак, р (k)�lim п(п-1)(ri-2)...[n-(k-1)]. J. ., k (l-�)n - k = п - n-+oo kl nk n = ��!�ао[1·(1-�)(1-�)... (1-k n I )(1-�)n -k ]= = Лk lim (1-�)п · lim (t-�)-k = Лk · е-"'·1. kl n->-oo n n->-oo n kl Таким образом (для простоты записи знак приближен ного равенства опущен), рп(k)=/. ., k e-Л/k ! Эта формула выражает зако н распределения Пуассона вероятностей массовых (п велико) и редких (р мало) событий. 3 а м е ч ан и е. Имеются специальные таблицы, пользуясь кото рыми можно найти Рп (k), зная k и Л. Пример. Завод отправил на базу 5000 доброкачественных изде .т�ий. Вероятность того , что в пути изделие повредится, равно 0,0002. Найти вероятность того, что на базу прибудут 3 негодных издел ия. Решение. По условию, п = 5000 , р = 0,0002 , k = 3. Найдем Л: • Л=nр =5000 ·0,0002 = 1. По формуле Пуассона искомая вероятность приближенно равна Р5000 (3) =Лke - д/kl=е- 1 /3!=1/6е:: :: :. .. 0,06. § 6. Простейший поток событий Рассмотрим события, которые наступают в слу чайные моменты времени. Потоком событий называют последовательность со бытий, которые наступают в случайные моменты времен и. Примерами потоков служат: поступление вызовов на АТС, на пункт неотложной медицинской помощи, при бытие самолетов в аэропорт, клиентов на предприятие бытового обслуживан ия, последовательность отказов эле ментов и многие другие. Среди свойств, которыми могут обладать потоки, вы дел им свойства стап.ионарности, отсутствия последействия и ординарности . Свойство ст ационарности характеризуется тем, что вероятность появления k событий на любом промежутке 69
времени зависит только от числа k и от длительности t промежутка и не зависит от начала его отсчета; при этом различные промежутки времени предполагаются непере секающимися. Например, вероятности появления k собы тий на промежутках времени (1; 7), ( 10; 16), (Т; Т+б) оди наковой дл ител ьности t = 6 ед. времени равны между собой. Итак, есл и поток обладает свойством стационарности , то вероятность появления k · событий за промежуток времени длительност и t есть функция, зависящая только отkиt. Свойство отсутствия последействия характеризуется тем, что вероятность появления k событий на любом промежутке времени не зависит от того, появлялись или не появлялись события в моменты времен и, предшествую щие началу рассматриваемого промежутка. Другими сло вами, условная вероятность появления k событий на любом промежутке времени, вычисленная при любых предположениях о том, чтб происходило до начала рас сматриваемого промежутка (сколько событий появилось, в какой последовател ьности), равна безусловной вероят ности . Таким образом, предыстория потока не сказывается на вероятности появления событий в ближайшем будущем. Итак, есл и поток обладает сво йством отсутств ия последействия , то имеет место взаимная незав исимость появлений того или иного числа событий в непересекаю щиеся промежутки времени. Свойство ординарности характеризуется тем, что По явление двух и более событий за малый промежуток времени практически невозможно. Другими словами, вероятность появлен ия более одного события пренебре жимо мала по сравнению с вероятностью появления толь ко одного события. Итак, если поток обладает свойством ординарности, то за бесконечно малый промежуток времени может появиться не более одного событ ия. Простейшим (пуассоновск им) называют поток собы ти й, который обладает свойствами стационарности , отсут ствия последействия и ординарности . 3 а мечани е. Ч асто на практике трудно установить, обладает ли поток перечисленными выше свойствами. Поэтому были найдены и другие условия, при соблюдении которых поток можно считать простейшим или близким к п ростейшему . В частности , установлено, что если поток представляет собой сумму очень большого числа н.еэа- 70
висимых стационарных потоков, вл ияние каждого из которых н.а всю сумму (суммарный поток) ничтожно 1rt aлo, то суммарный поток (при условии его ординарности) близок к простейшему. Интенсивностью потока Л называют среднее число событи й, которые появляются в единицу времени . Можно доказать, что если постоянная интенсивность потока известн а, то вероятность появления k событий про стейшего потока за время длительностью t определ яется формулой Пуассона Pt(k)=(Лt)k.e -Л1/k!. Эта формула отражает все свойства простейшего потока . Действительно, из формулы видно, что вероятность появления k событий за время t, при заданной интен сивности является функцией k и t, что характеризует свойство стационарности . Формула не ис пользует информации о появлении собы тий до начала рассматриваемого промежутка, что харак териз ует свойство отсутствия последействи я. Убедимся, что формула отражает свойство ординар· ности . Положив k =О и k = 1, найдем соответс.твенно вероятности непоявления событий и появления одного события: Pt(O)=e -лt, Pt (l)= Лte-лt . Следо вательно, вероятность появления более одного со� бытия Pt(k>1)=1 -[Pt(О)+Pt(1)]=1-[е-м+Лtе-Лt]. Пользуясь разложением е-лt = 1 -лt+(Лt)2/2!- . .., после элементарных преобразований получим Pt(k>1)=(Лt)2/2+. . .. Сравнивая Pt ( 1 ) и Pt (k > 1), заключаем, что при малых значен иях t вероятность появления более одного события пренебрежимо мала по сравнению с вероятностью наступления одного событи я, что характеризует свойство ординарности . Итак, формулу Пуассона можно считать математи ческой моделью простейшего потока событий. Пример. Среднее число вызовов, поступающих на АТС в одну минуту, равно двум . Найти вероятности того, что за 5 мин nосту пит: а) 2 вызова; б) менее двух вызовов; в) не менее двух вызовов. Поток вызовов предполагается простейшим . 71
Решение.Поусловию, Л=2, t=5,k=2.Воспользуемсяфор мулой Пуассона Pt(k)=('At)k.e-'J. .. t/k l а) Искомая вероятность того , что за 5 мин поступит 2 вызова , Р6 (2) = 102.е- 1012 1 = I00.0 ,000045/2 =0,00225. Это событие практически невозможно. б) События «Не поступило ни одного вызова» и «поступил один вызов» несовместны , поэтому по теореме сложения искомая вероят ность того, что за 5 мин поступит менее двух вызовов, равна Р"(k < 2)=Р6(О)+Р11(1)=e-10+(10.e- 1 0) /I: =0,000495 . Эrо событие практически невозможно . в) События «поступило менее двух вызовов» и «поступило не менее двух вызовов» противоположны, поэтому искомая вероятность того, что за 5 мин поступит не менее двух вызовов, Р"(k;; ;; ;. 2) = l -P0 (k < 2) = 1 -0,000495 =0,999505. Это событие практически достоверно. § 7. Геометрическое распределение Пусть производятся независимые испытания, в каждом из которых вероятность появления события А равна р (О < р < 1) и, сл едовател ьно, вероятность его непоявления q = 1 -р. Испытания заканчиваются, как только поя вится событие А. Таким образом, если собы тие А появилось в k-м испытании, то в предшествующих k- l испытан иях оно не появлялось. Обозначим через Х дискретную случайную велич ину число испытаний, которые нужно провести до пер вого появлен ия события А. Очевидно, возможными значе ниями Х ЯВЛЯЮТСЯ натуральные ЧИСЛа : Х1 = 1, Х2 = 2, ... Пусть в первых k- 1 испытаниях событие А не насту пило, а в k-м испыта нии появилось. Вероятность этого «сложного событию>, по теореме умножения вероятностей независимых событи й, р(Х=k)=qk-ip. Полагая k=1,2, . . . в формуле (*), получим геометри ческую прогрессию с первым членом р и знаменателем q (О<q<1): р, qp, q2p, ...' qk-lp, .. • По этой причине распредел ение (*) называют геометри ческим. 72
Легко убеди ться, что ряд (**) сходится и сумма его равна ед инице. Действительно, сумма ряда (**) p/(1- q)=p/p = 1 . Пример. Из орудия производится стрельба по цели до первого попадания. Вероятность попадания в цель р=О,6. Найти вероятность того , что попада ние произойдет при третьем выстреле. Решение. По условию, р=О,6, q =0,4, k=З. Искомая вероят ность по формуле (:i<) P = qk-l . p=0,42·0,6=0,096, § 8. Гипергеометри ческое распределение Прежде чем дать определение ги пергеометричес кого распределения, рассмотрим задачу. Пусть в партии из N издел ий имеется М стандартных (М < N). Из пар тии случайно отбирают п издел ий (каждое изделие может быть извлечено с од инаковой вероятностью), причем отоб ранное издел ие перед отбором следующего н е в о з вращается в партию (поэтому формула Бернулли здесь неприменима). Обоз начим через Х случайную вели чину-число т стандартных изделий среди п отоб ран ных . Очевидн о, возможные значения Х таковы: О, 1, 2, ••.• min (М, п). Найдем вероятность того, что Х = т, т. е. что среди п отобранных издел ий ровно т стандартных . Используем для этого классическое определение вероятности . Общее число возможных элементарных исх одов испы тан ия равно числу способов, которыми можно извлечь п издел ий из N издел ий, т. е. числу сочетаний C'J.;. Найдем число исходов, благопри ятствующих событию Х = т (среди взятых п изделий ровно т стандартных ); т стандартных издел ий можно извлечь из М стандарт ных изделий С% способами; при этом остал ьные п-т изделий должны быть нестандартными ; взять же п-т нестандартных изделий из N-m нестандартных издел ий можно C'Ji".! !' м способами . Следовательно, число благоприят ствующих исходов равно C%C'lv-.! !' м (см. гл. I, § 4, правило умножения). Искомая вероятность равна отношению числа исхо дов, благоприятствующих событию Х = т, к числу всех элементарных исходов р(Х=m)=С%�-.: :� м • (*) 73
Формула (*) определяет распределение вероятност ей, которое называют гипергеометрически м. Учитывая, что т-случайная величина, заключаем, что ги пергеометрическое распределение определ яется тремя параметрами : N, М , п. Иногда в качестве пара метров этого распределения рассматривают N, пиp=M/N, где р-вероятность того, что первое извл еченное издел ие стандартное. Заметим, что если п значительно меньше N (практи чески есл и п < О, lN), то гипергеометрическое распреде ление дает вероятности , бл изкие к вероятностя м, найден ным по биномиальному закон у. Пример. Среди 50 изделий 20 окрашенных. Найти вероятность того, что среди наудачу извлеченных 5 изделий окажется ровно З окрашенных. Решение. По условию, N=БО, М = 20 , n=5, m=З. Иско- мая верояпюсть Задачи 1. В озможные значения случайной величины таковы: х1 =2, х2 =5, х8 =8. Известны вероятности первых двух возможных зна чений: р 1 =0,4, & =0,15. Найти вероятность х3 • Отв. р8 =0,4::>. 2. Игральная кость брошена 3 раза. Написать закон распреде ления числа появлений шестерки. Отв. Х 3 2 О р l/216 15/2 16 75/2 16 125/216 3. Составить закон распределения вероятностей числа появлений события А в трех независимых испытаниях, если вероятность появ ления события в каждом испытании равна 0,6. Отв. k О 1 2 3 р 0,064 0 ,288 0,432 0,216 4. Прядильщица обслуживает 1000 веретен. Вероятность обрыва нити на одном веретене в течение 1 мин равна О,004. Найти вероят ность того, что в течение l мин обрыв произойдет на пяти веретенах. Отв. P1000 (5)=0,l562 . 5. Найти среднее число опечаток на странице рукописи, если вероятность того , что страница рукописи содержит хотя бы одну опечатку, равна 0,95. Предполагается , что число опечаток распре делено по закону Пуассона. · Указани е. Задача сводится к отысканию параметра Л из уравнения е-д. =0,05. Отв. З. 6. Коммутатор учреждения обслуживает 100 абонентов. Вероят ность того, что в течение 1 мин абонент позвонит на коммутатор, равна 0,02. Какое из двух событий вероятнее: в течение 1 мин позвонят 3 абонента; позвонят 4 абонента? Отв. Р1оо (3) =О,18; Р100 (4) =0,09, 74
7. Рукопись объемом в 1000 страниц машинописного текста содер жит 1000 опечаток. Найти вероятность того , что наудачу взятая страница содержит: а) хотя бы одну опечатку; б) ровно 2 опечатки; в) не менее двух опечаток. Предполагается, что число опечаток рас пределено по закону пrассона . Отв. а) Р= 1-е- =0,6321 ; б) Р1000 (2)=0,18395; в) Р = О,2642. 8. Среднее число вызовов , поступающих на АТС в 1 мин, равно 5. Найти вероятность того, что за 2 мин поступит: а) два вызова; б) менее двух вызовов; в) не менее двух вызовов. Указани е. е- 10 = 0,000045 . Отв. а) 0,00225; б) 0,000495; в) 0,999505 . 9. Производится бросание игральной кости до первого выпадения шести очков. Найти вероятность того, что первое выпадение «шес терки» произойдет при втором бросании игральной кости. Отв. Р(Х=2)=5/36. 10. В партии из 12 деталей имеется 8 стандартных. НайтИ вероят ность того, что среди 5 взятых наудачу деталей окажется 3 стан· дартных. Отв. Р(Х=3)= 14/33. Глава седьмая МАТЕМАТИ ЧЕСl(ОЕ ОЖИДАНИЕ ДИС КРЕТНОЙ СЛУЧАЙНОЙ ВЕЛИЧИНЫ § 1. Числовые характеристики дискретны� случайных величин Как уже известно, закон распредел ения пол ностью характеризует случайную величину. Одн ако часто закон распредел ения неизвестен и приходится ограничи ваться меньшими сведен иями. Иногда даже выгоднее пользоваться числами, которые описывают случайную величину суммарно; такие числа называют числовыми характерист иками случайной вел и чины. К числу важных числовых характеристик относится математическое ожи дание. Математическое ожидание, как будет показано далее, приближенно равно среднем у значению сл учайной вел и чины. Для решен ия многих задач достаточно знать мате матическое ожидание. Например, если известно, что мате матическое ожидание числа выбиваемых очков у первого стрелка больше, чем у второго, то первый стрелок в сред нем выбивает больше очков, чем вт орой , и, следова тельно, стреляет лучше второго. Хотя математическое ожидание дает о случайной величине значительно меньше 75
сведений , чем закон ее распределения, но дл я решения задач, подобных привед енной и многих других, знание математического ожидания оказывается достаточным . § 2. Математическое ожидание дис кретной случайной величины Математическ им ожиданием дискретной сл у чай ной вел ичины называют сумму произвед ений все х ее возможных зн ачений на их вероятности. Пусть сл учайная вел ичина Х может приним ать тол ько значения х1 , х2 , • ••, хп , вероятности которых соответ- ственно равны р1 , р2 , •••, р11• Тогда математическое ожи- да ние М (Х) сл учайной вел ичины Х определ яется равен ством М(Х)=Х1Р1+Х2Р2+ •••+Х"Рп· Есл и дискретная сл учайная вел ичина Х приним ает счетное множество возможных значен ий, то причем математическое ожидание существует , есл и ряд в правой части равенства сходится абсолютно . 3 а мечани е. Из определения следует, что математи ческое ожидание дискретной случайной величины есть н е с л у ч а й н а я (постоянная) величина; Рекомендуем запомнить это утверждение, так как далее оно используется многократно. В дальнейшем будет пока зано, что математическое ожидание непрерывной случайной величины также есть постоянная величина. Пример 1. Найти математическое ожидание случайной вели чины Х, зная закон ее распредеJ1ения: х3 52 р 0,1 0,6 0,3 Решени е. Искомое математическое ожидание равно сумме произведений всех возможных значений случайной величины на их вероятности: м (Х) =З-0,1 +s.o,6+2.0,3 =3,9. Пример 2. Найти математическое ожидание числа появлений события А в одном испытании , если вероятность события А равна р. Решение. Случайная величина Х -число появлений события А в одном испытании - может принимать только два значения: х1 = 1 (событие А наступило) с вероятностью р и х2 =О (событие А не наступило) с вероятностью q = 1 - р. Искомое матема·ги ческое ожидание M(X)=l·p+O·q =p. 76
Итак , математическое ожидание числа появлений собы тия в одном испытании равно вероятности этого собы тия. Этот результат будет использован ниже . § 3. Вероятн остн ый смысл математического ожидания Пусть произведе но п испытаний, в которых слу чайная величина Х приняла т1 раз значение х1 , m1 раз значен ие х2 , • ••, тk раз значение xk, причем т1+m1+ ... . . . +mя = п. Тогда сумма всех значен ий, принятых Х. равна X1m1+X2m2+ . ..+xkm". Найдем среднее арифметическое Х всех значений, при нятых. случайной вел ичиной, для чего раздел им найден ную сумму на общее число испытан ий: или Х=(х1т1+х1т1+ ...+хятя)/n, X =x1 (m1/n)+x2 (m2/n) + ... +xя (mk/n). (*) Заметив;· что отношение m1/n -относительная частота W1 значения х1, т,jп -относительная частота W2 значе ния х2 и т. д. , запишем соотношение (*) так: Х==Х1W1+Х2W2+ . ..+XkWk· (**) Допустим, что число испытаний достаточно велико. Тогда относительная частота приближенно равна вероят ности появления события (это будет доказано в гл . IX, § 6): W1�Р1• W1�Ра• ···• WЯ�Pk• Заменив в соотношении (**) относительные частоты соответствующими вероятност ям и, получим Х�Х1Р1+хаРа+ · · ·+хkРя· Правая часть этого приближенного равенства есть М (Х). Итак, Х�м(Х). Вероятностный смысл полученного результата таков: матеАtатическое ожидание приближенно равно (тем точ- 77
нее. чем больше число испытаний) среднему арифмети ческому наблюдае.мых значен ий случайной величины . 3 а мечани е l. Легко сообразить, что математическое ожида ние больше наименьшего и меньше наибольшего возможных значе ний. Другими словами , на числовой сси возможные значения распо ложены слева и справа от математического ожидания. В этом смысле математическое ожидание характеризует р а спо л о жени е р а с п р едел е н и я и поэтому его часто называют центром распреде ления. Этот термин заимствован из механики: если массы р1, Р2· . . ., Рп расположены .в точках с абсциссами х1, х2 , • • • , Хп , причем �Pi=l, то абсцисса центра тяжести Хе =(� XiPi)f�Pi· Учитывая, что �XiPi=M(X) и �Pt=l , получим М(Х)=хс. Итак , математическое ожидание есть абсцисса центра тяжести системы материальных точе к, абсциссы которых равны возможным значениям случайной величины, а массы -их вероятностям. 3 а меча н и е 2. Происхождение те рмина «Математическое ожи дание» связа!jо с начальным периодом возникновения теории вероят ностей (XVz-xvII вв.), когда область ее применения ограничива лась азартн; 1ми играми . Игрока интересовало среднее значение ожи даемого выигрыша , или, иными словами, математическое ожидание выигрыша. §4 . Свойства математическо го ожидания С в о й с тво 1. Математическое ожидание по стоянной величины равно са мой постоянной : М (С)=С. Док аз ател ь с тво. Будем рассматривать постоян ную С как дискретную случайную величину. которая имеет одно возможное значение С и принимает его с вероятностью р = 1 . Следовательно, М(С)=С·1 =С. 3 а мечани е l. Определим произведение постоянной вел ичины С на дискретную случайную величину Х как дискретную случайную СХ, возможные значения которой равны произведениям постоянной С на возможные значения Х; вероятности возможных значений СХ равны вероятностям соответствующих возможных значений Х. Напри мер, если вероятность возможного значения х1 равна р1 , то вероят ность того, что величина СХ примет значение Сх1, также равна р1• С в о й ств о 2. Постоянный множитель можно выно сить за знак математического ожидания: М(СХ)=СМ(Х). 78
Док а затель ств о. Пусть случайная величина Х задана законом распределения вероятностей: ХХ1Х2 Хп РР1Р2 Рп Уч итывая замечание 1, напишем закон распредел ения сл учайной величины СХ: СХ Сх1 Сх2 Схп Р Р1 Ра Рп Математическое ожида ние случайной вел ичины СХ : Итак, М(СХ)=Сх1р1+Сх2р2+ ...+СхпРп = = С(Х1Р1+Х2Р2+ • • •+ХпРп) =СМ(Х). М(СХ)=СМ(Х). 3 а мечани е 2. r_:Iрежде чем перейти к следующ;му свойству, укажем , что две случаиные величины называют независимыми, если закон распределения одной из них не зависит от того, какие воз можн ые :шачения приняла другая величина. В противном случае случайные величины за висимы. Несколько случайных величин назы вают взаимно независимыми, если законы распределения любого числа из них не зависят от того, какие возможные значения приняли остальные величины. 3 а м е ч а н и е 3. Определим произведение независимых случай ных величин Х и У как случайную величину ХУ, возможные зна чения которой равны произведениям каждого возможного значения Х на каждое возможное зн ачение У; вероятности возможных значе ний произведения ХУ равны произведениям вероятностей возможных значений сомножителей. Например, если вероятность возможного значения х1 равна р1, вероятность возможного значения у1 равна g1, то вероятность возможного значения х�и1 равна p1g1• Заметим, что некоторые произведения хш1 могут оказаться рав ными между собой. В этом случае вероятность возможного значения произведения равна сумме соответствующих вероятностей. Например, если х1у2 = х3у5, то вероятность х1у2 (или, что то же, ХзУ6) равна P1g2 -t-Pзg5 . С в ойств о 3. Математическое ожидание произведе ния двух независи J.t ых случайных величин равно произведе нию их математических ожиданий: М(ХУ)=М(Х)М(У). Док азательств о. Пусть независимые случайные величины Х и У задань1 своими законами распредел ения 79
вероятностей *); Х Х1Х2 у У1У2 Р Р1Р2 g g1g2 Составим все значения, которые может принимать случайная величина ХУ . Для этого перемножим все воз можные значения Х на каждое возможное значение У; в итоге получим х1у1, х 2у1, х 1у2 и х2у2 • Учитывая заме чание 3, напишем закон распределения ХУ, предполагая для простоты, что все возможные знач ения произвед ения различны (если это не так, то доказательство проводится аналогично) : ХУ р Математическое ожидание равно сумме произвед ений всех возможных значен ий на их вероятности : м(ХУ)=Х1У1.P1g1+Х2У1.P2g1+Х1У2 . P1g2+Х2У2 .P2g2, или м (ХУ) = Y1g1 (Х1Р1 + Х2Р2) + Y2g2 (Х1Р1 + Х2Р2) = = (Х1Р1+ Xv.P2) (y1g1 +Y2g2) =М (Х)·М (У). Итак, М (ХУ) = М (Х)·М(У). След ствие. Математическое ожидание произведе ния нескольких взаимно независимых случайных величин равно произведен ию их математических ожидан ий. Например, для трех случайных величин имеем : М(XYZ)=М(ХУ·Z)=М(ХУ)М(Z)=М(Х)М(У)М(Z). Для произвольного числа случайных величин дока зательство проводится методом математической индукци и. Пример 1. Независимые случайные величины Х и У заданы следующими законами распределения: х 5 2 4 у 7 9 р 0,6 0,1 0,3 р 0,8 0,2 Найти математическое ожидание случайной величины ХУ . Решение. Найдем математические ожидания I{аждой из данных величин: М (Х) =5·О,6 +2·0,1 +4·0,3 = 4,4; м (У)=7·0,8+9·0,9 =7,4. * ' Для упрощения выкладок мы ограни чились малым числом возможных значений. В общем случае доказательство аналогичное. 80
Случайные величины Х и У независимые, поэтому искомое ма тематическое ожидание М (ХУ) =М (Х) М (У) =4,4 ·7 ,4 =32,56. 3 а мечани е 4. Определим сумму случайных величин Х и У как случайную величину Х +У, возможные значения которой равны суммам каждого возможного значения Х с каждым возможным зна чением У; вероятности возможных значений Х +У для независимых величин Х и У равны произведениям вероятностей слагаемых; для зависимых величин - произведениям вероятности одного слагаемого на условную вероятность второго. Заметим, что некоторые суммы х +у могут оказаться равными между ссбой. В этом случае вероятность возможного значения суммы равна сумме соответствующих вероятностей. Например , если х1 + У2 = = х3 + у0 и вероятности этих возможных значений соответственно равны р12 и р85, то вероятность х1 + х2 (или, что то же, хз +Уь) равна Р12+Рзъ· Следующее н иже свойство справедл и во как для неза висимых , так и для зависи мых случайных величин. С в ойст в о 4 . Математическое ожидание суммы двух случайных величин равно сумме математических ожиданий сл агаемых: • М(Х+Yj=М(Х)+М(У). Док азательств о. Пусть случайные вел и ч и ны Х и У заданы следующи м и законам и распределен и я *1: Составим все возможные значения величины Х +У. Для этого к каждому возможном у значению Х прибавим каждое возможное значение У; получим х1 +у1, х1+у2, х2 +у1 и х2 +у2• Предположим для простоты, что эти возможные значения различны (если это не так, то дока зательство проводится аналогично}, и обозначим их ве роятности соответственно через р11, р12, р21 и р22• Математическое ожидание вел ичи ны Х + У равно сумме произведений возможных значений на их вероятности : М(Х+У)=(х1+У1)Р11+(х1+У2}Р12+(х2+У1)P2i+ +(х2+У2)Р22• *> Чтобы упростить вывод, мы ограничились лишь двумя возмож ными значениями каждой из величин. В общем случае доказатель ство аналогичное. 81
и.пи М(Х+У)=Х1(Р11+Р12)+Ха (Р21+Р22)+У1(Pi1+Р21)+ +Y:i(Pi2+Р22)· (*) Докажем, что Pii + Pis = р 1• Событие, состоящее в том, что Х примет значение х 1 (вероятность этоrо события равна р1) , влечет за собой событие, которое состоит в том, что Х + У примет значение х1 + у1 или х1 + у2 (вероятность этого события по теореме сложения равна р11 + р12), и обратно. Отсюда и следует, что р 11 + р12 = Pi· Аналогично доказываются равенства Р21+Р22=Р2• Pi1+P2i=gi и Р12+Р22=gs. Подста вляя правые части этих равенств в соотноше ние ( *), получим м (Х+ У)=(X1Pi + Х2Р2) +(y1gi + Y2g2), или окончательно М(Х+У)=М(Х)+М(У). С л едств и е. М атематическое ожидание суммы неско льких случайных величин равно сумме математичес ких ожиданий слагаемых. Например, для трех слагаемых величин имеем М(Х+У+Z)=M[(X+Y)+Z]= = М (Х+У)+М(Z)=M (Х)+М(Y)+M(Z). Для произвольного числа слагаемых величин доказа тельство проводится методом математической индукци и. Пример 2. Производится 3 выстрела с вероятностями попадания в цель, равными р1 =0,4; р2 = 0,3 и р3 = 0,6. Найти математическое ожидание общего числа попаданий. Р е ш е ние. Число попаданий при первом выстреле есть слу чайная величина Х1 , которая может принимать только два значения: 1 (попадание) с вероятностью р1 =0,4 и О (промах) с вероятностью q=1 -0,4 =0,6. Математическое ожидание числа попаданий при первом выстреле равно вероятности попадания (см. § 2, пример 2) , т. е. М (Х1) =0,4. Аналогично найдем математические ожидания числа попаданий при втором и третьем выстрелах: М (Х2) �о.з , М (Х3) =0,6 . Общее число попаданий есть также случайная величина, состоя щая из суммы попаданий в каждом из трех выстрелов: Х = Х1 +Х2+Хз. 82
Иском�. е математическое ожидание находим по теореме о мате матическо�' ожидании суммы: М (X)=M(Xi+X11+X8) =M (Х1)+М(Х2)+М(Хз) = =0,4+ о,з+о,6 = 1 ,3 (попаданий). Пример 3. Найти математическое ожидание суммы числа очков, которыf; могут выпасть при бросании двух игральных костей. Ретu е ние. Обозначим число очков, которое может выпасть на первой кости , через Х и на второй - через У. Возможные значения этих величин одинаковы и равны 1 , 2, 3, 4, 5 и 6, причем вероят ность каждого из этих значений равна 1/6. Найдем математическое ожидание числа очков, которые могут выпасть на первой кости: М (Х) = 1 ·(1/6)+2·(1/6)+з (1/6)+4·(1/6)+5·(1/6)+6· {1/6) =7/2. Очевидно, что и М (У) =7/2. Ис1<омое математическое ожидание М (Х +У)=М (Х) +М (У) =7/2+7/2 =7. § 5. Математическое ожидание числа появлений события в независимых испытаниях Пусть производится п независимых испытаний, в каждом из которых вероятность появления события А постоянна и равна р. Чему равно среднее число появле ний события А в эти х испытаниях? Ответ на этот вопрос дает следующая теорема . Теорема. Математическое ожидан ие М (Х) числа по явлений события А в п независимых испытаниях равно произведению числа испытаний на вероятность появления события в каждом испытании: М(Х) =пр. Док азательс тв о. Будем рассматривать в качестве случайной величины Х число наступления события А в п независимых испытаниях . Очевидно, общее число Х появ лений события А в этих испытаниях складывается из чисел появлений события в отдел ьных испытаниях . Поэ тому если Х1 - число появлений события в первом испы тании, Х2 -во втором, ..., Хп -в п-м, то общее число появлений события Х=Х1+Х2+ . . . +Хп. По третьему свойству математического ожидания, М (Х)=М(Х1)+М(Х2)+. ..+М(Хп). (*) Каждое из слагаемых правой части равенства есть математическое ожида ние числа появлений события в одном испытании: М (Х1) -в первом, М (Х2)-во вто- 83
ром и т. д. Так как математическое ожида ние числа появ лений события в одном испытании равно вероятности события (см.§2, пример 2), тоМ(Х1) =М(Х2)=М(Хп)=р . Подста вл яя в правую часть равенства ( *) вместо каждого слагаемого р, . получим М(Х)=пр. (**) 3 а мечани е. Так как величина Х распределена по биноми альному закону, то доказанную теорему можно сформулировать и так: математическое ожидание биномиального распределения с па раметрами п и р равно произведению пр. Пример. Вероятность попадания в цель при стрельбе из орудия р-=0,6. Найти математическое ожидание общего числа попаданий, если будет произведено 10 выстреJJов. Решени е. Попадание при каждом выстреле не зависит от ис ходов других выстрелов, поэтому рассматриваемые события незави симы и, следовательно. искомое математическое ожиданне М (Х) = пр=10·0,6 =6 (попаданий). Задачи 1. Найти математическое ожидание дискретной случайной величины, зная закон ее распределения: Отв. 2,6. х 6 31 р 0,2 0,3 0,5 2. Производится 4 выстрела с вероятностью попадания в цель р1 =0,6, р2 =0,4, р3 =0,5 и р4 =0,7. f-\айти математическое ожидание общего числа попаданий. Отв. 2,2 попадания. 3. Дис1{ретные независимые случайные веJJичины заданы законами распределения: х 2 р 0,2 0,8 у р 0,5 1 0,3 0;7 Найти математическое ожидание произведения ХУ двумя способами: а) составив закон распределения ХУ; б) пользуясь свойством 3. Отв. 1,53. 4. Дискретные случайные величины Х и У заданы законами распределения, указанными в задаче 3. Найти математическое ожи дание суммы Х +У двумя способами: а) составив закон распределения х +у; б) пользуясь свойством 4. Отв. 2,65. 5. Вероятность отказа детали за время испытания на надежность равна 0,2. Найти математическое ожидание числа отказавших деталей, если испытанию будут подвергнуты 10 деталей. Отв. 2 детали. 6. Найти математическое ожидание произведения числа очков, которые могут выпасть при одном бросании двух игральных костей. Отв. 12,25 очка. 84
7. Найти математическое ожидание числа лотерейных билетов, на которые выпадут выигрыши, если приобретено 20 билето в, причем вероятность выигрыша по одному билету равна 0,3. Отв. 6 билетов. Глава восьмая ДИСПЕРСИ Я ДИСК РЕТНОЙ СЛУЧАЙНОЙ ВЕЛИЧИНЫ § 1. Целесообразност ь введения числово й характеристики рассеяния случа йной величины Легко указать такие сл учайные величины, кото рые имеют од инаковые математические ожидан ия, но раз личные возможные значения. Рассмотрим, например, дискретные случай ные величины Х и У , заданные �ле� дующими законами распределен ия: х -0 ,0l 0,01 у -100 р 0,5 0,5 р 0,5 100 0,5 Найдем математические ожидания этих величин: М(Х)= -O,Ol·0,5+0,01·0,5=0, м (У)=-1 00 ·0,5+ 100·0,5 =0. Здесь математические ожидания обеих величин од ина ковы, а возможные значения разJrичны, причем Х имеет воз можные значения, близкие к математическому ожиданию, а У -далекие от своего математического ожидания . Таким образом, зная лишь математическое ожида ние случайной величины, еще нельзя судить ни о том, какие возможные значения она может принимать, ни о том, как они рас сеяны вокруг математического ожидания. Другими сло вами, математическое ожидание полностью случайную вел ичину не характеризует. По этой причине на ряду с математичес ким ожиданием вводят и другие числовые характеристики. Так, например, дл я того чтобы оценить, как рассеяны возможные зна чения случайной величины вокруг ее математического ожидания , пользуются, в частности, числовой характе ристикой , которую называЮт дисперсией . Прежде чем перейти к определению и свойствам дис персии , введем понятие отклонения случайной вел ичины от ее математического ожидания . 85
§ 2. Отклонение случайной величины от ее математического ожидания Пусть Х -случайная величина и М (Х)-ее ма тематическое ожида ние. Рассмотрим в качестве новой случайной величины разность Х-М (Х). Отклонен ием называют разность между случа йной ве личиной и ее математическим ожиданиям. nусть закон распределения х известен: ХХ1Х2•••Хп РР1Р2···Рп Напишем закон распределен ия отклонения. Для того чтобы отклонение приняло значение х1 - М (Х). доста точно. чтобы случайная величина приняла значение Х� Вероятность же этого события равна р1; следовательно. и вероятность того, что отклонение примет значение х1 - М (Х), также равна р1 • Аналогично обстоит дело и для остальных возможных значений отклонен ия. Таким образом, отклоне ние имеет следующий закон распредел ени я: Х-М(Х) Х1-М(Х) Х2-М(Х). . . Хп-М(Х) Р Р1 Р2 Рп Приведем важное свойство отклонения, которое исполь зуется далее. Теорема . Математическое ожидание отклонения равно нулю: М[Х-М(Х)]=О. Док азательств о. Польз уясь свойствами матема тического ожидания (математическое ожида ние разности равно разности математических ожиданий, математическое ожида ние постоянной равно самой постоянной) и приняв во внимание, что М (Х) - постоянная величина, имеем М[Х-М(Х)]=М(Х)-М[М(Х)]= М(Х)-М(Х) =О. Пример. Задан закон распределения дискретной случайной вели чины Х: хl 2 р 0;2 0,8 Убедиться ,, что математическое ожидание откл онения равно нулю. Решение. Найдем мате матическое ожидание Х: М(Х)=l ·0,2+2·0,8=1 ,8. 86
Найдем возможные значения отклонения, для чего из возможных значений Х вычтем математическое ожидание М (Х) : 1 - 1 ,8=- 0,8; 2- 1,8=0,2. Напишем закон расп ределения отклонения: Х-М(Х) -0,8 0,2 р 0,2 0,8 Найдем математическое ожидание откло нения: М [Х-М (Х)]=(-0,8)·0,2+0,2·0,8 =0. Ита к, математическое ожидание отклонения равно нулю, как и должно быть. 3 а м е чани е. Наряду с термином «отклонение» используют термин «центрированная величина». Центрированной случайной вели чиной Х называют разность между случайной величиной и ее мате матическим ожиданием: Х=Х-М(Х). Название «центрированная величина» связано с тем, что математиче ское ожидание есть центрраспределения (см. гл . VII, § 3, замечание). § 3. Дисперсия дискретной случа йной величины На практике часто требуется оценить рассеяние возможных значений случайной вел ичины вокруг ее сред него значения. Например, в артиллерии важно зна'Iь, насколько кучно лягут снаряды вблизи цел и, которая должна быть поражена. На первый взгляд может показаться, что для оценки рассеяния проще всего вычислить все возможные значения отклон ения случайной величины и затем найти их сред нее значение . Одн ако такой путь ничего не даст, так как среднее значение отклонения, т. е . М [Х - М (Х)], дл я любой случайной величины равно нулю. Это свойство уже было доказано в предыдущем параграфе и объясняется тем, что одни возможные отклонения положительны, а другие - отрицательны; в рез ультате их взаимного пога шения среднее значение отклонения равно нулю. Эти со ображен ия говорят о целесооб разности заменить возмож ные отклонения их абсолютными значениями или их квадратами . Так и поступают на деле. Правда, в случае, когда возможные отклонения заменяют их абсолютными значен иями , приходится оперировать с абсолютными ве личинами , что приводит иногда к серьезным затруднен иям. Поэтому чаще всего идут по другому пути , т. е. вычисляют среднее значение квадрата отклонения, ко'Iорое и назы вают дисперсией. 87
Дисперсией (рассеянием) дискретной случайной вели чины называют математическое ожидание квадрата откло нения случайной величины от ее математического ожидания: D(Х)=М[Х-М(Х)]2• Пусть случайная величина задана законом распреде ления Х2•••Хп Ра•••Рп Тогда квадрат отклонения имеет следующий закон рас пределен ия: [Х-М(хн� [х1-М (Х)]2 [xz-M(Х)]2••• [хп-М(X)J2 Р Р1 Р2 Рп По определению дисперсии, D(X) =M[Х - М (Х)]2 = = [х1-М(Х)]2р1+[х2-М(Х)]2р2+ ... +[хп-М(Х)]2Рп • Таким образом, для того чтобы найти дисперсию, до статочно вычислить сумму произведений возможных зна чений квадрата отклонения на их вероятности . 3 а мечани е. Из определения следует, что дисперсия дискрет ной случайной величины есть неслучайная (постоянная) величина. В дальнейшем читател ь узнает, что дисперсия непрерывной случайной величины также есть постоянная величина. Пример. Найти дисперсию случайной величины Х, которая задана следующим законом распределения: х1 2 5 р 0,3 0,5 0,2 Решение. Найдем математическое ожидание: М(Х)=l ·0,3+2·0,5+5·0,2 =2,3. Найдем все возможные значения квадрата отклонения: (х1-М (Х)]2 =(1 -2,3)2 = 1 ,69; [х2 -М (Х)]2 =(2-2,3)2 =0,09; [х3-М (Х)]2 = (5-2 ,3)2 = 7 ,29. Напишем закон распределения квадрата отклонения: [Х-М (Х)]2 1,69 0,09 7,29 р 0,3 0,5 0,2 По определению, D (Х)= 1 ,69 ·0,З+О,09·0,5+7,29 ·0,2=2,01. Вычисление, основанное на определении дисперсии, оказалось относительно громоздким. Далее будет указана формула, которая приводит к цели значительно быстрее. 88/
§ 4. Ф ормула для вычисления дисперсии Для вычисления дисперсии часто бывает удобно пользоваться следующей теоремой. Теорема. Ди сперсия равна разности между математи ческим ожиданием ква драта случайн-ой вел ичины Х и квадратом ее математического ожидания: D(Х) =М (Х2) -[М(Х)]2. Док а з атель с т в о. Математическое ожидание М (Х) есть постоянная величина, следовательно, 2М (Х) и М1 (Х) есть такж� постоя нные величины. Приняв это во внима ние и пользуясь свойствами математического ожидания (постоянный множитель можно вынести за знак матема тического ожидания, математическое ожидание суммы равно сумме математических ожиданий слагаемых), упро стим формулу, выражающую определение дисперсии : D(Х)=М[Х-М(Х)]2 =М[Х2-2хм(Х)+М2(Х)]= = М(Х2)-2М(Х)М(Х)+М2(Х)= Итак, =М(Х2)-2М2(Х)+м2(Х)=М(Х2)-М2(Х). . . D (Х) =М (Х2) -[М(Х)]2. Квадратю1я скобка введена в запись формулы для удоб ства ее запоминания. Пример 1. Найти дисперсию случайной величины Х, которая задана следующим законом распределения: х 2 3 5 р O,l 0,6 0,3 Реш е н и е. Найдем математическое ожидание М (Х): М (Х) =2·0 ,1 +З·О,6 +5·0 ,3 =3,5 . Напи шем закон расп ределения случайной величины Х2: х24 9 25 р O,l 0,6 0,3 Найдем математические ожидания М (Х2): М (Х2)=4 ·0,1 +9·0,6+25·0,3 = 13,3. Искомая дисперсия D(X) =М(Х2)-[М (Х)]2 = 13,3-(3,5)2 = 1 ,05. 3 а меча н и е. Казалось бы, если Х и У имеют одинаковые воз- 11.южные значения и одно и то же математическое ожидание, то и дисперсии этих величин равны (ведь возможные значения обеих ве· 89
личин одинаково рассеяны вокруг своих математических ожиданий!). Однако в общем случае это не так. Дело в том , что одинаковые воз можные значения рассматриваемых величин имеют, вообще говоря, раЗJiичные вероятности , а величина дисперсии опредzлмтся не только самими возможным и значениями, но и их вероятностями. Напри мер, если вероятности «далеких» от математического ожидания возможных значений Х больше, чем вероятности этих же значений У, и ве роят ности «близких» значений Х меньше, чем вероятности тех же значе ний У, то, очевидно, дисперсия Х больше дисперсии У. Приведем иллюстр ирующий при мер. Пример 2. Сравнить дисперсии слу чайных величин, заданных законами распределения: х-1 1 р 0,48 0,01 2 3 0,09 0,42 у-1 1 р О,19 0,51 Решение. Легко убедиться, что 2 3 0,25 0 ,05 М (Х)=М (У)=О,97; D(Х):: :: :. . 3,69, D(У):: :: :. . 1,21 . Таким образом, возможные значения и математические-о жидания Х и У одинаковы, а дисперсии различны , причем D (Х) > D (У). Этот результат можно было предвидеть без вычислений, глядя лишь на законы распределений. § 5. Свойства дисперсии Св о·й с т в о 1. Дисперсия постоянной величины С равна нулю: D(C)=O. Док аза т ель с т в о. По определению дисперсии, D(С)=М{[С-М(С)]2}. Пользуясь первым свойством математического ожида ния (математическое ожидание постоянной равно самой постоянной), получим D(C) = М [(С-С)2]=М (0) = О. Итак, D(C) =O. Свойство становится ясным, если учесть, что постоян ная величина сохраняет одн о и то же значение и рассея ния, конечно, не имеет. С в ойс т в о 2. Постоянный множитель можно выно сить за знак дисперси и, возводя его в квадрат: D (СХ) = C2D (Х). 90
Д о к азател ь ств о. По определению дисперсии имеем D(CX) =M{[СХ-М (СХ)]2} . Пользуясь вторым свойством математического ожида ния ( постоянный множитель можно выносить за знак математического ожидания), пол учим D(СХ)=М{[СХ-СМ(Х)]2} =М{С2[Х-М(Х)]2} = = С2М {[Х-М (Х)]2} =C2D (Х). . Итак, D (СХ) = C2D (Х). Свойство становится ясным, если принять во внима ние, что при 1С1> 1 . величина СХ имеет возможные зна чения (по абсолютной величине), большие, чем величина Х. Отсюда следует, что эти значения рассеяны вокруг математического ожидания М (СХ) больше, чем возмож ные значения Х вокруг М(Х), т. е. D (СХ) > D (Х). На против, если О<1С1<1, то D(СХ)<D(Х). С в ойств о 3. Дисперсия суммы двух независимых случайных величин равна сум,и е дисперсий этих величин : D(Х+У)=D(Х)+D(У). Док азательств о. По формуле для вычисления дисперсии имеем D(Х+У)=М[(Х+У)2]-[М(Х+У)]2. Раскрыв скобки и пользуясь свойствами математиче ского ожидания суммы нескольких вел ичин и произведе н ия двух независимых случай ных вел ичин, получим D(X +У)=м [Х2+ 2ХУ+У2]-[М(Х)+М (У)]2= = М(Х2)+2М(Х)·М(У)+М(У2) -М2(Х) - 2М (Х)·М (У)-М2(У) ={М(Х2) -[М(Х)]2}+ +{М(У2) -[М(У)]2} =D(Х)+D(У). Итак, D(X + Y) =D(X)+D(Y) . С лед ств и е 1. Дисперсия суммы нескольких взаимно независимых случайных величин равна сумме дисперсий этих вел ичин . 91
Например, для трех слагаемых имеем D(X + У +Z)=D[X +(У +Z)] =D(X) +D(Y + z) = = D(X) +D (Y)+D(Z). Для произвольного числа слагаемых доказательство проводится методом математической индукции. Сл едствие 2. Дисперсия суммы постоя.нной вели чины и случайной равна дисперсии случа йной вел ичины: D (С +Х) =D(X). Док аза тель ств о. Величины С и Х независимы, поэтом у, по третьему свойству, D (C +X)=D(С) +D (Х). В силу первого свойства D (С) = О . Следовател ьно, D(C+X) =D(Х). Свойство становится понятным, если учесть, что ве личины Х и Х +С отличаются лишь началом отсчета и, значит, рассеяны вокруг своих математических ожиданий одинаково. С в ойств о 4 . Дисперсия разности двух независимых случайных вел ичин равна сумме их дисперсий: D(X - Y) =D(X) +D(Y). Док азательств о. В сил у третьего свойства D(Х-- -: У)=D(Х)+D(-У). По второму свойству, D(X-Y)= D(X)+(- l)2 D(Y), или D(X-Y)=D (X) +D (У) . § 6. Дисперси я . числа появлений события в независимых испытаниях Пусть производится п независимых испытани й, в каждом из которых вероятность появлен ия события А постоянна. Чему равна дисперсия числа появлен ий со бытия в этих испытаниях? Ответ на этот вопрос дает следующая теорема. Теорема. Дисперсия числа появлений события А в п flе зави симых испытаниях, в каждом из которых вероятность 92
р появления события пост оянна , равна произеедени ю числа исп ытаний на вероятн ости появления и непоявления со бытия в одн ом испытании : D(X) =npq. Док азат�л ь ств о. Рассмотрим случайную вели чину Х-число появлений события А в п независимых испытаниях. Очевидно, общее число появлений события в :этих испытан иях равно сумме появлений события в от дел ьных испытаниях: Х =Х1+Х2+ ... +Хп• где Х 1 - число наступлений события в первом испытании, Х2-во втором, ..., Хп- в п-м. Величины Х1, Х 2 , •• •, Хп взаимно независимы, так как исход каждого испытания не зависит от исходов осталь ных, поэтому мы вправе воспользоваться следствием 1 (см. § 5): D(X) = D(X 1)+D(X 2)+ .. . +D(Хп) . (*) Вычислим дисперсию Х1 по формуле D (Х1) = М (Х:) -[М (Х1Н1 • Величи на Х 1 - число появлений события А в первом испытании, поэтому (см. гл. VII, § 2, пример 2) М (Х1) =р. Найдем математическое ожида ние величины Х�. кото рая ·может принимать только два значения, а именно: 1 а с вероятностью р и 02 с вероятностью q: М(Х�)=l2·p+02·q=р. Подставляя найденные результаты в соотношение (**), имеем D(Х1)=р-р2=р(1-р)=pq. Очевидно, дисперсия каждой из остальных случайных величин также равна pq. Заменив каждое слагаемое пра вой части ( *) через pq, окончательно получим D(X) =пpq. 3 а мечани е. Так как величина Х распределена по биномиаль ному закону, то доказанную теорему можно сформулировать и так: дисперсия биномиального распределения с параметрами п и р равна произведению npq. Пример. Производятся 10 независимых испытаний, в каждом из которых вероятность появления события равна 0,6. Найти дисперсию случайной величины Х - числа появлений события в этих испытаниях. 93
Решение. По условию , n= 10, р =0,6. Очевидно, вероятность непоявления события q-= = 1 -0,6=0,4. Искомая дисперсия D (Х) =npq= 10·0,6 ·0,4 = 2 ,4. § 7. Среднее квадратическое отклонение Для оцен ки рассеяния возможных значений слу чайной величины вокр уг ее среднего значения кроме дис персии служат и некоторые другие характеристи ки. К их числу относится среднее квадратическое отклонен ие. Средним квадратическ им откл онением случайной ве личины Х называют квадратный корень из дисперсии: (j(Х)=VD(Х). Легко показать, что дисперсия имеет размерность, равную квадрату размерности сл учайной величины. Так как среднее квадратическое отклонение равно квадратному корню из дисперсии, то размер ность а (Х) совпадает с размерностью Х. Поэтому в тех случаях, когда жела тельно, Чтобы оценка рассеяния имела размерность слу чайной величины, вычисляют среднее квадратическое от клонен ие, а не дисперсию. Например, если Х выражается в линейных · метр ах, то а (Х) будет выражаться также в линейных метрах, а D (Х)-в квадратных метрах . Пример. Случайная величина Х задана законом распределения х2 3 10 р 0,1 0,4 0,5 Найти среднее квадратическое отклонение а (Х). Решение . Найдем математическое ожидание Х: М (Х) =2·0, 1 +3·0,4 + 10·0,5=6,4. Найдем математическое ожидание Х2: м (Х2) =22.о,1 +з2 . о,4 +102.0,5 =54. Найдем дисперсию: D (Х) =М (Х2)-[М (Х)]2 =54 -6,42 = 13,04. Искомое среднее квадратическое отклонение о(Х)=VD(X)=VI3,04:: :. . 3,61. 94
§ 8. Среднее квадратическое отклонение суммы взаимно независимых случайных величин Пусть известны средние квадратические откло нения нескольких взаимно независимых сл учайных вели чин . Как найти среднее квадратическое отклонение суммы этих величин? Ответ на этот вопрос дает следующа я теорема. Теорема. Среднге квадратическое откл онение суммы конечного числа взаимно независимых случайных величин равно квадратному корн ю из суммы квадратов средн их квадратических отклонений этих величин : <1(Х1+Х2+ ...+Хп)=v<12 (Х1)+<12(Х2)+...+02 (Хп)· Док азатель ст в о. Обозн ачим через Х сумму рас сматриваемых взаимно независимых величин: Х=Х1+Х:.1+ ...+Хп. Дисперсия суммы нескольких взаимно независимых случайных величин равна сумме дисперсий слагаемых (см. § 5 , следствие 1), поэтому D(X)=D(X1) + D(X2) + .. .+D(Хп) . Отсюда или окончательно § 9. Одинаково распределенные взаимно независимые случайные величины Уже известно, что по закону распределения можно найти числовые характеристики случайной величины. Отсюда следует, что если несколько случайных величин имеют од инаковые распределения, то их числовые харак теристи ки од инаковы . Рассмотрим п взаимно независимых случайных величин Х1, Х 2 , ••• , Хп, которые имеют оди наковые распредел ения, а следовател ьно, и од инаковые характеристики (матема тическое ожидание, дисперсию и др.). Наибольший ин терес предста вляет изучение числовых характеристик 95
среднего арифметического этих величин, чем мы и зай мемся в настоящем параграфе. Обозначим среднее арифметическое рассматри ваемых случайных величин через Х: Х=(Х1+Х2+ ... +Хп)fп. Следующие ниже три положения ус тан авливают связь между числовыми характеристиками среднего арифмети - ческого Х и соответствующими характеристиками каждой отдельной вел ичины. 1. Математическое ожидание среднего арифмети ческого одинаково распределенных взаимно независи мых случайных величин равно математическому ожиданию а каждой из величин: М (Х)=а. Док а зат е л ь ств о. Пользуясь свойствами матем а тического ожидан ия (постоя нный множитель можно вы нести за знак математического ожидания; математическое ожида ние суммы равно сумме математических ожи).J.а н и й слагаемых ), имеем М(Х)=М (Х1+Х2�··· +Хп) = М (Х1)+М(Х2)+. . . +М(Хп) - п Приняв во внимание, что математическое ожидание каждой из величин по условию равно а , пол учим М(Х)=па/п=а. 2 . Дисперсия среднего арифмет ического п одинакоrю распределенных взаимно независимых случайных велич ин в п раз меньше дисперсии D каждой из вел ичин: D(X)= D/п. Док аза т ель с т в о. Пользуясь свойствами диспер сии (постоянный множитель можно вынести за знак дис персии, возведя его в квадрат; дисперсия суммы неза ви� симых величин равна сумме дисперсий слагаемых ) , имеем 96 D(Х)=D(Х1+Х2�...+хп) = D (X1)+D(Х2)+... +D (Хп) = п2
Приняв во внимание, что дисперсия каждой из вели чин по условию равна D , получим D(Х)=nD/n2=D/n. 3. Среднее квадрати ческое отклонение среднего ариф метического п одинаково распределенных взаимно незави - симых случайных величин в Vn раз меньше среднего квадра тического отклонения о каждой из величин: о(Х)=о/Vn. Доказат ельст во. Так как D (X) = D;п, то сред нее квадратическое от клонение Х равно (J (Х)=vD(Х)=VD;n =VD!Vn= o/Vn. Общий вывод из формул (*) и (**) : вспоминая, что дисперсия и среднее квадратическое отклонение сл ужа т мерами рассеяния случайной величины, заключаем, что среднее арифметическое достаточно большого числа вза имно независимых случайных величин имеет значительно меньшее рассеяние, чем каждая отдельная величина . Поясним на примере значение этого вывода для прак тики . Пример. Обычно для измерения некоторой физической величины производят несколько измерений, а затем находят среднее арифме тическое полученных чисел , которое принимают за приближенное значение измеряемой величины. Предполагая, что измерения произ водятся в одних и тех же условиях, доказать: а) среднее арифметическое дает результат более надежный, чем отдельные измерения; б) с увеличением числа измерений надежность этого результата возрастает. Реш е н и е. а) Известно, что отдельные измерения дают неоди наковые значения измеряемой величины. Результат каждого измере ния зависит от многих случайных причин (изменение температуры, колебания прибора и т. п.), которые не могут быть заранее полностью учтены. Поэтому мы вправе рассматривать возможные результаты пот дельных измерений в качестве случайных величин Х1, Х2, •••, Хп (индекс указывает номер измерения). Эти величины имеют одинако вое распредгление вероятностей (измерения производятся по одной и той же методике и теми же приборами), а следовательно , и одина ковые числовые характеристики; кроме того , они взаимно независимы (результат каждого отдельного измерения не зависит от остальных измерений). · Мы уже знаем, что среднее арифметическое таких величин имеет меньшее рассеяние, чем каждая отдельная величина . Иначе говоря , среднее арифметическое оказывается более близким к истинному зна- 4-210 97
чению измеряемой величины, чем результат отдельного измерения. Эrо и означает, что среднее арифметическое нескольких измерений дает более надежный результат, чем отдельное измерение. б) Нам уже известно , что при возрастании чис.1а отдельных слу чайных величин рассеяние среднего арифметического убывает. Эrо значит, что с увеличением числа измерений среднее арифметическое нескольких измерений все менее отличается от истинного значения измеряемой: величины. Таким образом, увеличивая число измерений, получают более надежный результат. Например, если среднее квадратическое отклонение отдельного измерения CJ=6 м, а всего произведено n=36 измерений, то среднее квадратическое отклонение среднего арифметического этих измерений равно лишь 1 м. Действительно, G(X)=a/Yn=6/У36= 1. Мы видим, что среднее арифметическое нескольких измерений, как и следовало ожидать, оказалось более близким к истинному зна чению измеряемой: величины, чем результат отдельного измерения. § 10. Начальные и централь ные теоретические моменты Рассмотрим дискретную случайную величину Х, заданную законом распредел ения: х р 1 2 5 0,6 0,2 0, 19 Найдем математическое ожидание Х: 100 0,01 М (Х)= 1·О,6+2·0,2+5·0,19+ 100-0,01 = 2,95. Напишем закон распределения Х 2: х21425 р 0,6 0,2 о,19 10 000 0, 01 Найдем математическое ожида ние Х2: М (Х2) = l ·0,6+4·0,2+ 25 -0,19+10000 - 0,01 = 106,15. Видим, что М (Х2) значительно больше М (Х). Это объясняется тем, что после возведения в квадрат возмож ное значение величины Х2, соответств ующее значению х = 100 величины Х, стало равным 10 ООО, т. е . значи тельно увеличилось; вероятность же этого значения мала (0 ,01). Таким образом, переход от М (Х) к М (Х2) позволил лучше учесть вл ияние на математическое ожидание того возможного значения, которое велико и имеет малую ве- 98
роятность. Разумеетс я, если бы величина Х имела не сколько больших и маловероятных значений, то переход к величине Х 2 , а тем более к величинам Х 3 ,Х4ит.д., позволил бы еще больше «усилить роль» этих больl!Iих, но маловероятных возможных значений . Вот почему оказывается целесообразным рассматривать математичес кое ожидание целой положительной степени случайной величины (не только дискретной, но и непрерывной). Начальным моментом порядка k случайной величины Х называют математическое ожидание величины Xk: v1 e = M (Xk). В частности, v1=М(Х), v2=М(Х2). Пользуясь этими моментами, формулу для вычисления дисперсии D (Х) = М (Х�)-[М (Х)]2 можно записать так: D (Х) = v1-vi. (*) Кроме моментов случайной величины Х целесообразно рассматривать моменты отклонения Х -М (Х). Центральным моментом порядка k случайной вел и чины Х называют математическое ожидание величины (Х -М (X))k: В частности, μk = М [(Х-М (X))k]. μ1 =М[Х-М (Х)] =О, μ2 =М[(Х -М (X))2]=D(X). Легко выводятся соотношен ия, связывающие началь ные и центральные моменты. Например, сравнивая (•) и ( ***), получим J.t2=V2-Vf. Нетрудно, исходя из определения центрального мо мента и пользуясь свойствами математического ожидания, получить формулы: μ3 = V3 - 3V12V1 +2vf, μ4 = V4 � 4v3v1 +6v2vf -Зvf. Моменты более высоких порядков применяются редко. 3 а мечани е. Моменты, рассмотренные здесь, называют теоре тическим и. В отличие от теоретических моментов, моменты , которые вычисляются по данным наблюдений, называют эмпирическими. Опре деления эмпирических моментов даны далее (см. гл. XVII, § 2). 99
Задачи 1. Известны дисперсии двух независимых случайных вели чин: D (Х) = 4, D (У) = 3. Найти дисперсию суммы этих величш1. Отв. 7. 2. Дисперсия случайной величины Х равна 5. Найти дисперсию следующих величин: а) Х- 1; б) -2Х ; в) ЗХ+6. Отв.а)5;б)20;в)45. 3. Случайная величина Х принимает только два значения: +с и -С, каждое с вероятностью 0,5. Найти дисперсию этой величины. Отв. С2• 4. Найти дисперсию случайной величины, зная закон ее распре деления Отв. 67 ,6404. х 0,1 2 р 0,4 0,2 10 0,15 20 0,25 5. Случайная величина Х может принимать два возможных зна чения: х1 с вероятностью 0,3 и х2 с вероятностью 0,7, причем х2 > х1• Найти х1 и х2, зная, что М(Х)=2,7 и D(X) =0,21. Отв. х1=2, х2=3. 6. Найти дисперсию случайной величины Х - чисщ1 появлений событий А в двух независимых испытаниях, если М (Х) =О,8. У к аза н и е. Написать биномиальный закон распределения ве роятностей числа появлений события А в двух независимых испыта ниях. Отв. 0,48 . 7. Испытывается устройство , состоящее нз четырех независимо работающих приборов. Вероятности отказа приборов таковы: р1 =0,3; р2 =0,4; р3 =0,5; р4 = 0,6. Найти математическое ожидание и дис персию числа отказавших приборов. Отв. 1,8; 0,94 . 8. Найти дисперсию случайной величины Х - числа появлений. события в IOO независимых испытания_х , в каждом из которых вероят- . ность наступления события равна 0,7. Отв. 21 . 9. Дисперсия с,,1учайной веJiнчины D (Х) = 6,25. Найти среднее к:nадратнческое отклонение <1 (Х). Отв. 2,5. 10. С .'lrчайная веJiичина задана законом распределения х р 2 0,1 4 8 0,5 0,4 Найти среднее квадратнческое отклонение этой величины. Отв. 2,2. 11. Дисперсия каждой из 9 оди наково распределенных взаимно независимых случайных величин равна 36. Найти дисперсию среднего арифметического этих величин. Отв. 4. 12. Среднее квадратическое отклонение каждой из 16 одинаково распределенных взаимно независимых случайных ве.'lичин равно 10. Найти среднее квадрати•1еское отк.11онение среднего арифметического этих величин. Отв. 2,5. 100
Глава девятая ЗАКОН БОЛЬШИХ Ч ИСЕЛ § 1. Предварительные замеча ния Как уже известно, нельзя заранее уверенно пред видеть, какое из возможных значений примет случайная величина в итоге испытания ; это зависит от многих слу чайных причин, учесть которые невозможно. Казалось бы, поскольку о каждой случайной ве.1 1 ичине ·мы распо лагаем в этом смысле весьма скромным и сведениями, то вряд ли можно установить закономерности поведен ия и суммы достаточно большого числа случайных велич ин. На самом деле это не так. Оказывается, что при некото рых сравнительно широких условиях суммарное поведе ние достаточно большого числа сл учайных величин почти утрачивает s:лучайный характер и становится законо мерным. Для практики очень важно знание условий, при вы полнении которых совокупное действие очень многих слу чай ных причин приводит к результату, почти не завися щему от случая, так как позволяет предвидеть ход явле ний. Эти условия и указываются в теоремах, носящих общее название закона больших чисел. К ним относятся теоремы Чебышева и Бернулли (имеются и другие теоремы, которые здесь не рассматриваются ) . Теорема Чебышева является наиболее общим законом больших чисел, теорема Бернулли-простейшим. Для доказательства этих теорем м ы воспользуемся неравенством Чебышева. § 2. Неравенство Чебышева Неравенство Чебышева справедливо для дискрет ных и непрерывных случайных величин. Для простоты ограничимся доказательством этого неравенства для диск ретных величин. Рассмотр им дискретную случайную величину Х, задан ную таблицей распределения: ХХ1Х2•••Хп РPiР2 •••Рп Поставим перед собой задачу оценить вероятность того, что отклонение случайной величины от ее математического .101
ожидания не превышает по абсолютной величине поло жительного числа е. Если е достаточно мало, то мы оце ним, таким образом, вероятность того, что Х примет значения, достаточно близкие к своему математическому ожиданию. П. Л . Чебышев доказал неравенство, позволяю щее дать интересующую нас оцен ку. Неравенство Чеб ышева. Вероятность того, ч то отклонение случайной величины Х от ее математического ожидания по абсолют ной величине меньше положитель ного числа е, не 1rtен ьше, чем l-D (Х)/е2 : P(IX-M (X)I <в)�l -D (X)/e2• Док азательств о. Так как событи я, состоящие в осуществлении неравенств / Х-М (X)I <виl Х-М (X)l�e, противоположны, то сумма их вероятностей равна еди нице, т. е. P(IX-M (Х)\ < 8)+P(IX-M (X)j�e) = 1 . Отсюда интересующая нас вероятность P(IX-M(X)I< е) = 1 -P(IX-M(X)l;; ;: :: : e). (*) Таким образом, задача сводится к вычислению вероят ности Р(1Х-М(Х)1�8). Напишем выражение дисперсии случайной величины Х : · D(Х)=(х1-М(Х)]2р1+[х2-М(Х)]2р2+ ... • · · +[хп-М(Х)]2Рп · Очевидно, все слагаемые этой суммы неотрицательны. Отбросим те слагаемые, у которых / х1 -М (Х) / < 8 (дл я оставшихся слагаемых lxi -M (Х) 1 � 8), вследствие чего сумма может только уменьшитьс я. Условимся счи тать для определенности , что отброшено k первых сла гаемых (не нарушая общности, можно считать, что в таб лице распределения возможные значения занумерованы именно в таком порядке). Таким образом, D(Х)�[xk+1-M(Х)]2Рkн+[хkн-М(Х)]2Рkн+ ... • • · +[хп - М (Х)]2 Рп • Заметим, что обе части неравенства 1 xi-M (Х) / � 8 (j= k + 1, k + 2, . .., п) положительны, поэтому, возведя их в квадрат, пол учим равносильное неравенство / х1 - - М (Х) /2 � е2 • Воспользуемся этим замечанием и, заменяя в оставшейся сумме каждый из множителей 1 х1 -М (Х) 12 числом 82 (при этом неравенство может лишь усилиться), 102
получим D(Х)�82(Pk+1+Рkн+ ·· ·+Рп). По теореме сложения, сумма вероятностей Pk+i+Pk+ 2 + . . . . . . +Рп есть вероятность того, что Х примет одно, без различно какое, из значений Xk+i• Xk+2, • ••, Хп, а при любо м из них отклонение удовлетворяет неравенству 1 xj-M (Х) 1�8. Отсюда следует, что сумма Pk+i+Pk н-Г-· • • . . . +Рп выражает веро ятность P(IX-M (X)j�8). Это соображение позво ляет переписать неравенство ( **) та к: D(Х)�82 Р(1Х-М(Х)1�8), или Р (lX -М (Х)1�8)�D (Х)/82• Подставляя (***) в _ (*) , окончательно получим Р.(1Х-М(Х)1< 8)� 1-D(Х)/е2, что и требовалось доказ�: ь. 3 а м е ч ани е. Неравенство Чебышева имеет для практики огра ниченное значение) поскольку часто дает грубую, а иногда и три виальную (не представляющую интереса) ·оценку. Например, если .О(Х):;: :. . . е2 и, следовательно, D (Х)/е2 > 1, то 1-D (Х)/е2 < О; таким образом, в этом случае неравенство Чебышt:ва указывает лишь на то, что вероятность отклонения неотрицательна, а это и без того очевидно, так как любая вероятность выражается неотрицательным числом. Теоретическое же значение неравенства Чебышева весьма велико. Ниже мы воспользуемся этим неравенс1 вом для вывода теоремы Чебышева. § 3. Теорема Чебышева Теорема Чебышева. Если Х1, Х2, •••, Хп • п о парно независи мые случайные величины, причем диспер сии их равномерно ограничены (не превышают постоян ного числа С) , то , как бы мало ни было положительное число в, вероятность неравенства 1Х1+Х2� ...+хп _ м (Х1)+М(Х2�+ . ..+м(Хп)! < 8 будет как угодно близка к единице, есл и число случайных величин достаточно велико . 103
Другими словами , в условиях теоремы lim р (1Х1+х2 + ...+ х" n-+оо n _ М(Х1)+М(Х2�+. . . +М(Х")1<8)=l. Таким образом, теорема Чебышева утверждает, что ecJIИ рассматри вается достаточно большое число незави симых с�учайных величин, имеющих ограниченные ди сперсии, то почти достоверным можно считать событие, состоящее в том, что отклонение среднего арифметического сл учайных величин от среднего арифмет ического их ма тематичес ких ожиданий будет по абсолютной величине сколь угодно малым. Док азател ь ств о. Введем в рассмотрен ие новую случайную величину- среднее арифметическое сл учайных вел ичин X=(X1 +Xs+ ...+ Хп)/n . Найдем математическое ожидание Х. Пол ьзуясь свой ствами математического ожидан ия (постоянный множи тель можно вынести за знак математического ожидания, математическое ожидание суммы равно сумме математи ческих ожиданий слагаемых), получим м(х.+Х2+. ..+х") =м(Х1)+М(XJ+. . . +м(Х") . (*) п п Применяя к величине Х неравенство Чебышева, имеем .P (jx1+x2 �". +x " _ м (х1+х2-:· ··+хп)I<е)� D (Х1+Ха:···+Хп) �1- e:t ' или, учитывая соотношение (*) , Р(1Х1 +Х2� ...+Хп _ М(Хi)+М(Х�+...+М(Хп)1<8)�l_ v(Х1 +Х2-: · ··+Хп) е2 - Пол ьзуясь свойствами дисперсии ( постоянный r.шожи те.1ь можно еынести за знак дисперсии, возведя егQ 104
в квадрат; дисперсия суммы независимых случайных ве личин равна сумме дисперсий слагаемых), пол учим D(Х1+хз+ . ..+Хп) = D(X1)+D(Х2)+...+D(Хп) п � • По условию диспе рсии всех сл учайных величин огра ничены постоянным числом С, т. е . имеют место нера · ве нства : D (Х1)�С; D(X2)�C; .. .; D(Хп) �С, поэтому (D(X 1)+D (X2 )+ .. .+D(Х п))/п 2 �(С+С+ . ..·+ C)/n2 = = nC/n2 = С/п. Итак, Подставляя правую часть (***) в неравенство ( **) (отчего последнее может быть лишь усилено), имеем Р(1Х1+Х21:· ..+Хп _ _ М(Х1) + М(Х2�+ . ..+ М(Хп) I <г);> I _ п:2• Отсюда , переходя к пределу при п - оо, пол учим lim р (jХ1+Х1+...+хп п.. .. . оо п - м (Х1)+М (Х�+ ...+м (Хп)1 <г);>1. Наконец, учитывая, что вероятность не может пре вышать единицу, окончате.11ьно можем написать lim Р(/Х1+Х2+ ...+х" п.. .. ао n _ М(Х1)+М(Х2�+... +М(Хп)\ <8) =1. Теорема доказана. Выше, формулируя теорему Чебышева , мы предпол а гали, что случайные величины имеют различные матема тические ожидания. На практике часто бывает, что сл у чайные вел ичины имеют одно и то же математическое ожида ние. Очевидно, что если вновь допустить, что диспер сии этих величин ограничены, то к ниы будет применима теорема Чебышева . Обозначим математическое ожидание каждой из слу чайных вел ичин через а; в рассматриваемом случае сред- 105
нее арифметическое математических ожида ний, как легко видеть, также равно а. Мы можем сформулировать тео рему Ч2бышева для рассматриваемого частного случая. Если Х1, Х2, •••, Хп , • ••- попарно независимыеслучай ные величины, имеющие одно и то же математическое ожидание а, и есл и дисперсии эти х вели чин равномерно ограничены, то, как бы мало ни было число в > О, ве роятность неравенства /Х1+Х2�···+Хп _а/<8 будет как угодно близка к единице, если число случай ных вели чин достато чно велико . Другими словами, в условиях теоремы будет иметь место равенство :��р(!Х1+Х2�•••+Хп -а1<8)=l. § 4. Сущность теоремы Чебы шева Сущность доказанной теоремы такова : хотя ОТ·· дельные независимые сл учайные вел ичины могут прини мать значения, далекие от своих математических ожиданий, среднее арифметическое достаточно большого числа елучай ных величин с большой вероятностью принимает значе ния, близкие к определенному постоянному числ у, а именно к числу(М(Х1)+М(Х2)+. ..+М(Хп))/п(или к числуа в частном случае). Иными словами, отдел ьные сл учайные величины могут иметь значительный разброс, а их среднее арифметическое рассеянно мало. Таким образом, нельзя уверенно предсказать, какое возможное значение примет каждая из случайных вели чин, но можно предвидеть, какое значение примет их среднее арифметическое . Итак, среднее арифметическое достато чно бол ьшого числ а независимых случ ай ных вел ичин (дисперсии которых равномерно ограничены) утр ачивает хара ктер случайной величины . Объясняется это тем , что откл онения каждой из величин от своих математических ожиданий могут быть как положительными, так и отрицательны ми, а в среднем арифметическом они взаимно погашаются. Теорема Чебышева справедл ива не толькь для дискрет ных, но и для непрерывных сл учай ных величин; она 106
является ярким примером, подтверждающим справедл и вость учения диалектического материализма о связи между случайностью и необходимостью. § 5. Значе ние теоремы Чебышева для практики Приведем примеры применения теоремы Чебышева к решению практических задач. Обычно для измерен ия некоторой физической величины производят несколько измерений и их среднее арифме тическое принимают в качестве искомого размера. При каких условиях этот способ измерения можно считать правильным? Ответ на этот вопрос дает теорема Чебы шева (ее частный случай). Действительно, рассмотрим результаты каждого из мерения как случайные величины Х1, Х2, ••• , Хп . К этим величинам можно применить теорему Чебышева , если : 1 ) они попарно независимы, 2) имеют одно и то же ма тематическое ожидание, 3) дисперсии их равномерно огра ничены. Первое требование выполн яетс я, если результат каж дого измерения не зависит от результатов остал ьных. Второе требование выполняется, если измерения произ ведены без систематических (одного знака) ошибок. В этом случае математические ожидания всех случайных величин оди наковы и равны истинному размеру а. Третье требо вание выполняется, если прибор обес печивает определен ную точность измерений. Хотя при этом резул ьтаты отдельных измерений различны, но рассеяние их огра ничено. Если все указанные требования выполнены, мы вправе применить к результатам измерений теорему Чебышева: при достаточно большом п вероятность неравенства 1(Х1+Х2+. · · +Хп)/п-а\<8 как угодно близка к единице. Другими словами, при достаточно большом числе измерений почти достоверно, что их среднее арифметическое как угодно мало отл и чается от истинного значения измеряемой величины. Итак, теорема Чебышева указывает условия. при ко торых описанный способ измерен ия может быть приме нен . Однако ошибочно думать, что, увел ичивая число измерен ий, можно достичь сколь угодно большой точ ности. Дело в том, что сам прибор дает показания лишь 107
с точностью ±а; поэтому каждый из результатов изме рений, а следовател ьно, и их среднее арифметическое будут получены лишь с точностью, не превышающей точности прибора. На теореме Чебышева основан ши роко применяемый в статистике выборочный метод, суть которого состоит в том, что по сравнительно небольшой случайной выборке судят о всей совокупности (генеральной совокупности) исследуемых объектов. Например, о качестве кипы хлопка заключают по небольшому пучку , состоящему из волокон , наудачу отобранных из разных мест кипы. Хотя число волокон в пучке значительно меньше, чем в кипе, сам пучок содержит достаточно большое количество волокон , исчисляемое сотня ми . В качестве другого примера можно указать на опре деление качества зерна по небольшой его пробе. И в этом сл учае число наудачу отобранных зерен мало сравни тельно со всей массой зерна, но само по себе оно доста точно велико. Уже из при веденных примеров можно заключить, что для практики теорема Чебышева имеет неоценимое зна чение. § 6. Теорема Бернулли Пусть производится п независимых испытаний , в каждом из которых вероятность появления события А равна р. Можно ли предвидеть , какова примерно будет относител ьная частота появлений события? Положитель ный ответ на этот вопрос дает теорема , доказанная Я:ко бом Бернулли (опубликована в 1713 г.). которая полу чила название «закона больших чисел» и положила начало тео рии вероятностей как науке. Доказательство Бернулли было сложным; простое доказательство дано П. Л . Чебы шевым в 1846 г. Теорема Бернулли . Есл и в каждом из п независимых испытаний вероятность р появления события А постоянна, то как угодно близка· к единице 'в ероятноспiь того, что отклонение относительной частоты от вероятно сти р по абсолютной величине будет скол ь угодно малы.м , · есл и число испытан ий достаточно велико. Другими словами , если 8-сколь угодно малое· поло жительное число, то при соблюдении условий теоремы 108
имеет место равенство lim P(\m/n - pl<e)=l. п-"" Док азательс т в о. Обозначим через Х 1 дискретную слу чайную величи ну-- число появлений события в первом испытании, через Х2 -во втором, ..., Х п -в п-м испы тании. Ясно, что каждая из величин может принять лишь два значен ия: 1 (событие А наступило) с вероят ностью р и О (событ ие не появилось) с вероятностью l-p =q. Можно ли прю.1енить к рассматриваемым величинам тео рем у Чебышева? Можно, если случайные величины по парно независимы и дисперсии их ограничены. Оба усло вия выпо,'l няются. Действительно, попарная IJезависимость величин Х1, Х2, .••, Хп следует из того, ч'то испытания независимы. Дисперсия любой величины Х 1 (i = 1 , 2, ..., п ) равна произведению pq *>; так как р + q = l , то произве дение pq не превышает * *> 1/4 и, следовател ьно , дисперсии всех ве.п ичин ограничены, например, числом С = 1/4. Примен яя теорему Чебышева (частный случай) к рас сматриваемым величи нам, имеем lim Р(/(Х1+Х2+ ...+Хп)/п -а/ < е) = 1. 11-Ф":Х1 Приняв во внимание, что математическое ожида ние а каждой из величин Х 1 (т. е . математическое ожидание числа появлен ий события в одном испытании) равно ве роятности р наступления события (см . гл . VI I, § 2, пример 2), пол учим lim P(/(X1 +X2+ . . . +X11)/n -p /<e)=l. п-"' Остается показать, что дробь (Х1 + х�+ ...+ Х11)/п равна относительной частоте m/n появлений события А в испытаниях . Действител ьно, каждая из величин Х 1, Х,н .. ., Хп при появлен ии события в соответствующем испытании принимает значение, равное еди нице; следо- "'> Это следует из § 6 гл. VIII, ес:ш принять n=I. "'*) Известно , что произведение двух сомножителей, сумма ко торых есть величина постоянная, имеет наибольшее значение при ,ра венстве сомножителей. Здесь сумма Pi+q1= 1, т. е . постоянна, поэто му при Pi = qi = 1 /2 произведение Ptqi имеет наибольшее з начение и равно 1/4. 109
вательно, сумма Х1 + х2 + ...+Хп равна числу т по явлений события в п испытаниях, а значит, (Х1+Х2 + ...+Xn)/n = m/n. Учитывая �то равенство, окончательно получим lim Р<1m/n-p1<е)=1. n -+-«>J З а меча н и е. Было бы неправильным на основании теоремы Бернулли сделать вывод , что с ростом числа испытаний относитель ная частота неуклонно стремится к вероятности р; другими словами, из теоремы Бернулли не вытекает равенство lim (m/n) = р. В тео- . п.. .:,. со реме речь идет лишь о вероятности того, что при достаточно большом числе испытаний относительная частота будет как угодно мало отличаться от постоянной вероятности появления события в каж дом испытании. Таким образом, сходимость относительной частоты m/n к в�о ятности р отличается от сходимости в смысле обычного анализа. Для того чтобы подчеfкнуть это различие, вводят понятие ссходимости по вероятности» >. Точнее, различие между указанными видами сходимости состоит в следующем: если m/n стремится при п -- -+ оо к р как пределу в смысле обычного анализа, то начиная с некото рого п = N и для всех последующих значений п неуклонно выпол няется неравенство 1 m/n -p 1 < е; если же m/n стремится по веро ятностикр прип-- -+ оо , то для отдельных значений п неравенство может не выполняться. Итак, теорема Бернулли утверждает, что при п -- -+ оо относи тельная частота стремится no вероятности кр. Коротко теорему Бернулли записывают так: т вер п;;.=;:р. К:ак видим, теорема Бернулли объясняет, почему относительная частота при достаточно большом числе испытаний обладает свойством устойчивости и оправдывает статистическое определение вероятности {см. гл. 1, § 6-7). Задач и 1. Сформулировать и записать теорему Чебышева, исполь зуя понятие ссходимости по вероятности». 2. Используя неравенство Чебышева, оценить вероятность того, что 1 Х-М(Х) 1 < 0,1, если D (Х)=О,001. Отв.Р;; ;а. 0,9 . З.Дано: Р(1Х-М(Х)1<е);; ;а. 0,9; D (Х) =0 ,004 . Используя неравенство Чебышева, найти г. Отв. 0,2. •> Последовательность случайных величин Х1, Х1 , • • • сходится по вероятности к случайной величине Х, если для любого е > О вероятность неравенства 1 Хп -Х 1 < е при n -- -+ oo стремится к единице. 110 /
Глава десятая ФУНl(ЦИЯ РАСП РЕДЕЛЕН ИЯ ВЕРОЯТНОСТЕЙ СЛУЧАЙНОЙ В ЕЛИЧИНЫ § 1. Определение функции распределения Вспомним, что дискретная случайная величина может быть задана- перечнем всех ее возможных значений и их вероятностей. Такой способ задания не является общи м: он неприменим, например, дл я не прерывных сл учайных величин. Действительно, рассмотрим сл учайную величину Х, возможные значен ия которой сплошь заполняют интервал (а, Ь). Можно ли состав ить перечень . всех возможных значений Х? Очевидно, что этого сдел ать нельзя . Этот пример указывает на целесооб разность дать общий спо соб задания любых типов сл учайных вел ичин. С этой целью и ВВ<?дят функции распредел ения вероятностей сл учайной величины. Пусть х-действительное число. Вероятность события, состоящего в том, что Х примет значение, меньшее х, т. е . вероятность событ ия Х < х, обозначим через F (х) . Разу меетс я, если х изменяется, то, вообще говоря, изменяется и F(х), т. е. F(х)-функция от х. Функцией распределения называют функцию F (х) , опре деляющую вероятность того, что случайная величина Х в результате испытан ия примет значение, меньшее х, т. е. F(х)=Р(Х<х). Геометрически это равенство можно истолковать так: F (х) есть вероятность того, что сл учайная вел ичина примет значение, которое изображается на числовой оси точ кой , лежащей левее точки х. Иногда вместо те рмина «фу нкция распределения» используют термин «интегральная функци я». Теперь можно дать более точное определение непре рывной случайной вел ичины: сл учайную вел ичину назы вают непрерывной, если ее функция распределения есть непрерывная, кусочно-дифференцируемая функция с не прерывной производной . 111
§ 2. Свойства функции распределени я С в ойств о 1 . Значения функции распредел ения принадлежат отрезку [О, 1 ] : O�F(x)�1. Док азател ь ств о. Свойство вытекает из опреде ления функции распределения как вероятности : вероят ность всегда есть неотрицательное число, не превышающее единицы. Свойство 2 . F(х) -неубывающая функция, т . е . F(х2)�F(х1), если х2 > х1• Доказател ьств о. Пусть х2 > х1 • Событи е, состоя щее в том, что Х примет значение, меньшее х2, можно подраздел ить на следующие два несовместных события : 1 ) Х примет значение, ·меньшее х1, с вероятностью Р (Х < х1); 2) Х примет значение, удовлетворяющее не равенству х1�Х <х2, с вероятностью Р(х1�Х <х2). По теореме сложен ия имеем Р (Х <х1)=Р(Х <х1) + Р (х1�Х <х2). Отсюда или Так как любая вероятность есть число неот рицатель ное, то F(x2)-F(х1)�О, или F(х2)�F(х1), что и тре бовалось доказать. Сл едствие 1 . Вероятность того, что случа йная вел ичина примет значение, заключенное в интервале (а, Ь), равна приращению функции распределения на этом ин тервале: Р (а�Х< Ь) = F (b)-F(а). Эrо важное следств ие вытекает из формулы (*), если ПОЛОЖИТЬХ2=Ь ИХ1=а. Пример. Случайная вел11чина Х задана функцией распределения {О при х<;-1; F(x)= х/4+1/4 при -1<х..; ;; ;; 3; 1 при х>З. 112
Найти вероятность того, что в результате испытания Х примет зна чение, принадл ежащее интервалу (О, 2): то Р(О<Х<2)=F(2)-F(О). Решеи и е. Так как на интервале (О, 2), по условию, F(х) =х/4+1/4, F(2)-F(О)=(2/4+ 1/4)-(0/4+1/4)= 1/2. Итак, Р(О<Х<2)=t/2. Следств и е 2. Вероятность того, что непрерывная случайная ееличина Х примет одно определенное значение, равна нулю. Действительно, положив в формуле (**) а=х1 , Ь = х1+ + Лх, имеем Р(х1�Х<х1+Лх)=F(х1+Лх)-F(х1). Устремим Лх к нулю. Так .. .. . как Х-непрерывная сл учай ная вел ичина, то функция F (х) непрерывна . В силу непрерывности F (х) в точке х1 разность F (х1 + Лх) -F (х1) также стремится к нулю; следовательно, Р (Х = х1) = О . Используя это положение, легко убедиться в справедли вости равенств Р(а�Х<Ь)=Р(а<Х<Ь)= = Р(а <Х�Ь) =Р(а�Х�Ь). ' (***) Например, равенство Р(а<Х�Ь)=Р(а<Х<Ь) доказывается так: Р(а<Х�Ь)=Р(а<Х<Ь)+Р(Х=Ь)=Р(а<Х<Ь). Таким образом, не представляет интереса говорить о вероятности того, что непрерывная случайная величина примет одн о определенное значение, но имеет смысл рас с матривать вероятность попадания ее в интервал , пусть даже сколь угодно малый. Этот факт полностью соответ ствует требованиям практических задач. Например, инте ресуются вероятностью того, что размеры де талей не выходят за дозволенные границы, но не ставят вопроса о вероятности их совпадения с проектным размером. Заметим, что было бы неправильным думать, что ра венство нулю вероятности Р (Х = х1) означает, что событие Х = х1 невозможно (если, конечно, не ограничиваться классическим определением вероятности). Действител ьно, в результате испытания случайная величина обязательно 113
примет одно из возможных значений; в частности , это значение может оказаться равным х1 • С в ойств о 3. Если возможные значения слу чайной величины принадлежат интервалу (а, Ь), то: 1) F (х) =О при х�а; 2) F(х)=1 при х�Ь. Доказател ьство. 1) Пусть х1 �а. Тогда событие Х < х1 невозможно (так как значений, меньших х1 , вели чина Х по условию не принимает) и, следовател ьно, вероятность его равна нулю. 2) Пусть х2 � Ь. Тогда событие Х < х2 достоверно (так как все возможные значения Х меньше х2) и, сле довательно, вероятность его равна еди нице. След ств и е. Если возможные значения непрерывной случайной величины расположены на всей оси х, то спра ведл ивы следующие предельные соотношения: lim F(х)=О; limF(х)=1. § 3. График функции распределения Доказанные свойства позволяют представить, как выглядит график функции распределения непрерывной случайной величины. График расположен в полосе, ограниченной прямыми у=О, У = 1 (первое свойство). При возрастании х в интервале (а, Ь), в котором за ключены все возможные значен ия случайной величины , график << Поды мается вверх» (второе свойство) . F(x) Рис. 2 При х �а ординаты графика равны нулю; при х � Ь ордин аты графика равны единице (третье свойство) . График функции распределения непрерывной случай ной вел ичины изображен на рис. 2 . 3 а м е·ч а ние. График функции распределения дискретной слу чайной величины имеет ступенчатый вид. Убедимся в этом на примере. 114
Пример. Дискретная случайная величина Х задана таблицей распределе ния х1 4 8 р 0,3 0,1 0,6 Найти функцию распределения и вычертить ее график. Решение. Если х.; ;; ;:; 1, то F (х)=О (третье свойство). Если1<х,,; ;; ;; ; 4, то F(x)= =0,3. Действительно, Х может принять значение 1 с вероятно стью 0,3'. Если4<х�В. то F(x)= =0,4. Действительно, если Xi F(x) Рис. 3 удовл етворяет неравенству 4 < <х1<; ; 8, то F (х1) равно веро ятности события Х < x:i:, кото рое может быть осуществлено, когда Х примет значение 1 (ве роятность этого события равна 0,3) или значение 4 (вероятность этого события равна 0,1). Поскольку эти два события несовместнн, то по теореме сложения вероятность события Х < Xi равна сумме вероятностей 0,3 +0,1 =0,4 . Если х > 8, то F (х) = 1. Действительно, событие Х <: : 8 досто верно, следовательно, его вероятность равна единице. Итак, функция распределения аналитически может быть запи сана так: при при при х,,; ;; ;; ; 1, 1<х<; ; 4, 4<х.; ;; ;; 8, х>8. при График этой функции приведен на рис. 3. , Задач и 1. Случайная величина Х задана функцией распределения {о при х<; ; -1, F(х)= x 1 J3+1/3 при -1 <х.. .; ; 2, при х>2. Найти вероятность тоrо, что в результате испытания Х примет зна чение, заключенное в интервале (О, 1). Отв. 1/3. 2. Случайная величина Х задана функцией: распределения {О при F(х)= ( 1 х/2) -1 при при х.. ..; 2, 2 <х<: : 4, х>4. Найти вероятность того, что в результате испытания Х примет зна чение, заключенное в интервале (2, 3). Отв. 1/2. 115
3. Дискретная случайная величина Х задана законом распре .целения х2 р 0,5 6 10 0,4 0,1 Построить график фун1щии распределения это й величины. Глава одиннадцатая П ЛОТНОСТЬ РАСПРЕДЕЛЕНИЯ ВЕРОЯТНОСТЕЙ Н ЕПРЕРЫВНОЙ СЛУЧ АЙНОЙ ВЕЛИ Ч ИН Ы § 1. Определение плотности распределения Выше непрерывная случайная величина зада ва лась с помощью функции распределени я. Этот способ задания не является еди нственным. Непрерывную сл у чайную величину можно также задать , ис по.11ьзуя другую функцию, которую называют плотностью распределении или плотностью вероятности (иногда ее называют диф ференциальной функцией). Плотностью распределения вероятностей непрерывноii случайной величины Х называют функцию f (х) - первую производную от функции распределен ия · F (х) : f(х)=F'(х). Из этого определения следует, что функция распре деления является первообразной д.11 я плотности распре делен ия. Замети м, что для описания распределения вероятно стей дискретной случайной вел ичины плотност ь распре деления неприменима. § 2. Вероятность попадания непрерывной случа йной вели чины в задан ный интервал Зная плотность распределения, можно вычислить вероятность того, что непрерывная случайная величина примет значение, принадлежащее заданному интерваJIУ. Вычис.аение основано на следующей теореме. Теорема. Вероятность того, что непрерьшная случа й ная вел ичина Х п римет зн ачение, принадлежащее интер валу (а , Ь), равна определенно.�t у инт егралу от плотност и 116
распределения, взятому в пределах от а до Ь: ь Р(а<Х<Ь)=Sf(х)dx. а Док азательств о. Используем соотношение (**) (см.гл.Х,§2) Р(а�Х < b) =F(b) -F(a) . По формуле Ньютона- Лейбниц а, ь ь F(b)-F(а)=SF'(х)dx= Sf(х)dx. Таким образом, а а ь Р(а�Х<Ь)=Sf(х)dx. а Так как Р(а�Х<Ь)=Р(а<Х<Ь), то оконча- тельно получим ь" Р(а<Х<Ь)=Sf(х)dx. а Геометрически полученный результат можно истолко вать так: вероятность того, что непрерывная сл учайная величина пр имет значение, принадлежащее интервалу (а, Ь), равна площади криволинейной трапеции, ограни ченной осью Ох, кривой распределения f (х) и прямыми х=аи х=Ь. 3амечание. В частности, если f(х)-четнаяфункция и концы интервала симметричны относительно начала координат, то а Р(-а< Х < a)=P(jX/< а) =2Sf(x)dx. о Пример. Задана плотность вероятности случайной вели чины Х f (х)={�х при х<; ;; О, при О<х о; ;; ;; l, при х>1. Найти вероятность того, что в результате испытания Х примет зна чение, принадлежащее интервалу (0,5; 1). Р е ш е н и е. Искомая вероятность 1 Р(О,5<Х<1)=2 S xdx=x2 1�.� =1-0 ,25 =0,75. 0,5 117
§ 3. Нахожде ние функции распределения по известной плотности распределения Зная плотность распределения f (х) , можно найти функцию распределен ия F (х) по формуле х F(х)=Sf(х)dx. -Ф Действительно, мы обозначили через F (х) вероятность того, что случайная величина примет значение, мень шеех,т.е. F(х)=Р(Х<х). Очевидно, неравенство Х < х можно записать в виде двойного неравенства - оо < Х < х, следовательно, F(х)=Р(-оо<Х<х). (*) Полагая в формуле (*) (см. § 2) а= -оо, Ь=х, имеем х Р(-оо<Х<х)=Sf(х)dx. _.., Наконец, заменив Р(-оо < Х <х) наF(х), в силу(*), окончательно получим х F(х)=Sf(х)dx. _.., Таким образом, зная плотность распределения, можно найти функцию распределен ия. Разумеется, по известной функции распределения может быть найдена плотность распределения, а именно : f(х)=Г'(х). Пример. Найти функцию распределения по данной ПJiотности распредеJiения: f(х)� {1/(Ь-а1 при х.е; ; а, при а<х<.Ь, при х>Ь. Построить график найденной функции. 00 Решение. Воспользуемся формулой F (х) = S f (х) dx. -ао 118
Если х,.; ;; ;; ; а, то f (х)=О, следовательно, F(х)=О. Если а < х,.; ;; ;; ; Ь, то f (х) = 1 /(Ь - а) , следовательно, ею а х F(х)=Sf(х)dx= SОdx+SЬ 1 а dx=��. Еслих>Ь,то -оо -с.о а F(х)=SОdx+SЬ dx а+SОdx=:�=1. -оо а Ь Итак, искомая функция распределен ия {Опри F(x) = (х -а)/(Ь-а) при 1 при х.; ;; ;; а, а<х .,; ;; ;;. Ь, х>ь. График этой функции изображен на рис. 4. § 4 . Свойства плотности распределения С в о й с т в о 1 . Плотность распределения-не отрицательная фун кция: f (х) �О. До к азательств о. Функция распределения - не убывающая функция , следовательно, ее производная F' (х) = f (х) -функция не- F(х ) отрицател ьная . Геометрически это свойство означает, что точ ки, принадлежащие гра фику плотности распреде ления, расположены либо над осью Ох , либо на этой оси . 1 --------·.- -- -- -- 1 1 1 1 1 -- -j - ---'--ь -'- -- - -- -----Х ,о Q Рис. 4 График плотности распределе ния называют кривой распредел ения. . . С в ойств о 2 . Несобственный интеграл от плотности расп ределения в пределах от - оо до оо равен единице: 00 �f(х)dx=1. -00 Доказательство. Несобственный интеграл "" S f (х) dx выражает вероятность события , состоящего в -00 119
том, что сл учайная величина примет значение, принад лежащее ин rервалу ( - оо, оо ) . Очевидно, такое событие достоверно, следовательно, вероятность его равна еди нице. Геометрически это означает, что вся площадь криво линейной трапеци и, ограниченной осью Ох и кривоii распределения, равна единице. В частности, если все возможные значения c.riyчaй нoii величины принадлежат интервалу (а , Ь), то ь �f(х)dx=1. а Пример. Плотность распределения случайной ве.111ч11ны Х задана: а f(;�)= --. .,. .. е-х+ ех Найти постоянный па раметр а. Р ешен11 е. Плотность расп ределения до:1жна удовJiетворять у<.:· .. . лозию � f (х) dx = 1, поэтому потребуем, чтобы выподнялось ра- -ао оеиство О'Гсюда ,., Sdx а _ е ___ х_ + _е_х_ = 1• а=<:» sdx Найдем неопределенный ннтеrрал: Sdx s le_: d e:x = arctg е-1: . е - х +е х , Вычисли� несобственный интеграл: о с limS- -:- d_x _,,. . + нш S- - d_x __ е- х + ех е--\: +ех ь--"" ь с-+" о = lim (- arctgеЬ) + llm (arctg ее) = n/2. Ь-+ -оо с- · » Таким образо�1. искомый па раметр (20 1 2 а= n/2 =п·
§ 5. Вероятностн ый смысл плотности распределения Пусть F (х) -функция распределен ия непрерыв ной случайной вел ичины Х . По определению плотности распределения, f (х) = F ' (х), или в иной форме f()_1 . F(х+Лх)-F(х) х-л/�о Лх • Как уже известно, разность F (х + Лх) - F (х) опре де.1 яет вероятность того, что Х примет значение, при над.1ежащее интервалу (х, х + Лх). Таким образом, пре де.r1 отношен ия вероятности того, что непрерывная слу чайная величина примет значение, принадлежащее интер ва.1 у (х, х + Лх), к д.11ине этого интервала ( при Лх - 0) раве н значению плотности распределения в точке х. По аналогии с оп ределением плотности массы в точке *1 це.1есообразно рассматривать значение функции f (х) в точке х как плотность вероятности в этой точке. Итак, функция f (х) определяет плотность распределе ния вероятности для каждой точки х. Из дифференциального исчисления известно, что при ращение функции приближенно равно дифференциал у функции, т. е. F(х+Лх)-F(х) �dF(х), или F (х+ Лх)-F(х) � F' (х)dx. Так как F'(х)=f(х) и dx=Лх, то F(х+Лх)-F(х)�f(х)Лх. Вероятностный смысл этого равенства таков : вероят ность того, что сл учайная величина примет значен ие, принадлежащее интервалу (х, х + Лх), приближенно равна (с точностью до бесконечно малых высшего порядка от нос нтел ьно Лх) произведению плотности вероятност и в точке х на дл ину интервала Лх. •) Ес.'! И масса непрерывно распредЕ'.'lена вдо.1ь ос_н х по некото рому закону, например F (х), то плотностью р (х) массы в точке х называют предел отношения массы 11нтерваJ1а (х, х+Лх) к дли не л_ 0 () 1. F(х+Лх)-F(х) шперва.'lапри�-+ ,т.е.рх=ш1 Л • Ах-+0 х 121
Геометрически этот результат можно истолковать так : вероятность того, что сл учайная величина примет значе ние, принадлежащее интервалу (х, х + Лх), приближенно f(x) равна площади прямоуголь ника с основанием Лх и вы сотой f (х) . На рис. 5 видно, что пло щадь заштрихованного пря мо угольн ика, равная произве дению f (х) Лх, лишь прибли- -;:- -1 г- --==='- - ----х женно равна площади криво- о х х+дх линейной трапеции (истинной х+дх Рис. 5 вероятности, определяемой оп ределенным интегралом � f (х) dx) . Допущенная при этом погрешность равна х площади криволинейного треугольника АВС. § 6. Закон равномерного распределения вероятностей При решении задач, которые выдвигает практи ка, приходится стал киваться с различными распределе ниями непрерывных случайных величин. Плотности рас пределений непрерывных случайных величин называют также законами распределен ий . Часто встречаются, на пример, законы равномерного, нормального и показатель ного распределен ий. В настоящем параграфе рассматри вается закон равномерного распределения вероятностей . Нормальному и показательному законам посвящены сле дующие две главы. Распределение вероятностей называют равномер ным, если на интервале, кото рому принадлежат все возможные значен ия случай ной вел ичины, плотность распределен ия сох раняет посто янное значен ие. Приведем пример равномерно распределенной непре рывной случайн ой величины . Пример. Шкала измерительного прибора проградуирована в не которых единица х . Ошибку при округлении отсчета до б лижайшего целого деления можно рассматривать как случайную величину Х, которая может принимать с постоянной п лотностью вероятности лю бое значение между двумя соседними целыми делениями , Таким об разом, Х имеет равномериое распределение. 122
Найдем плотность равномерного распределения f (х) , считая, что все возможные значения случайной величины заключены в интерва. ле (а, Ь), на котором функция f (х) сохраняет постоянные значения: По условию, Х не принимает значений вне интервала (а, Ь), поэтомуf(х)=Оприх<аи х>Ь. Найдем постоянную С. Так как все возможные значения слу чайной величины принадлежат интервалу (а, Ь), то должно выпол няться соотношение Отсюда ь St(x) dx= l, а ь или ь sCdx= l. а С=1/Sdx=1/(Ь-а). а Итак, искомая плотность вероятности равномерного распределе ния f(x)={1/(Ь:а) График плотности равномер- при при при деления- на рис. 4. 3 а мечани е. Обозначим че- Ь-а рез R непрерывную случайную ве- хое; ;; ;; а, а<х�Ь, Х>Ь. ного распределения изображен на / ( 1 11>1 рис. 6, а график функции распре- личину, распределенную равномер- --:0:-t-��� -�.:- - ���� ь � · ,_ _ �� - .. ., х но в интервале (О, 1), а через r- ее возможные значения . Ве роятность попадания величины R Рис. 6 (в результате испытания) ·в интервал (с, d), принадлежащий интер валу (О, 1), равна его длине: Р(с<R<d)=d-c. Действительно, плотнm;ть рассматриваемого равномерного рас пределения f(r)=1/(1,-0)=1 . Следовательно, вероятность попадания случайной величины R в ин тервал(с,d)(см.гл.XI,§2) d d Р(с<R<d)=Sf(г)dr=Sl·dr=d-c. с с Далее случайная величина R испо.'I ьзуется неоднократно (см. гл . XXI). .123
Задачи 1. Случайная величина задана плотностью распределения (О при х.=:; ;; ;; - n/2, f(х)=�аc 0 osх ыри - n/2<х.=:; ;; ;; л/2 , � при х>n/2. Найти коэффициент а. Отв. а = 1/2. 2. Сл учайная вели чина задана плотностью распределения {О при х.=:; ;; О, f(х)= (sin 0 x)/2 при О<х.=:; ;; ;; л, при х>л. Найти: а) функцию распределения; б) вероятность того, что в резуль тате испытания случайная вели чина примет значение, заключенное в интервале (О, n /4). {О при х.=:; ;; О, Отв. F(х)= (1-c 1 osх)/2 при О<х.=:; ;; ;; л, при х>n. S. Случайная вели чина Х задана функцией распределения {О при F(х)= х 1 при при х�о. О<хо; ;; ; 1, х>1. Найти плотность распределения. Отв. f(х)= 1 в : интервале (О, 1); вне этого интервала f (х) =О. 4. Случайная величина Х задана функцией распределения {О при х=О , F(х)= (1-c 1 osх)/2 при О<хс; ;; n, при х>n. Отв. f (х) =(sin х)/2 в интервале (О, n); вне этого интервала f (х) =0. Глава двенадцатая НОРМАЛЬНОЕ РАСПРЕДЕЛЕНИЕ § 1. Числовые характеристики непрерывных случайных вели чин Распространим определения числовых характе ристик дискретных величин на величины непрерывные. Начнем с математического ожидания. Пусть непрерывная случайная величина Х задана плот ностью распределения f (х) . Допустим, что все возможные 124
значения Х принадлежат отрезку [а , Ь]. Разобьем этот отрезок на п частичных отрезков дл иной Лх1 , Лх2 , • • • , Лхп и выберем: в каждом из них произвольную точку х1 (· = 1 , 2, . . . , п). Нам надо определить математическое ожидание непрерывной ве.11ичины по аналогии с дискрет ной ; составим сумму произведений возможных значений х1 на вероятности попадания их в интервал Лх1 (напом ним, что проl!зведение f (х) Лх приближенно равно вероят ности попадания Х в интервал Лх) : �x1f (х;) Лх1 • Перейдя к пределу при стремлении к нулю дл ины наи большего из частичных отрезков, получим определенный ь интегра.11 S xf (х) dx. а Математическим ожиданием непрерывной случайной величины· Х. возможные значения которой принадлежат отрезку rа. ь]. называют определенный интеграл ь М(Х)=Sxf(x)dx. а Если возможные значения принадлежат всей оси Ох , то ". М(Х)=S xf(x)dx. Предполагаетс я, что несобственный интеграл сходится абсо- .,. .г�ютно" т. е . существует интеград S 1х1f (х) dx. Если бы -ао это требование не выполнялось, то значение интеграла зависело бы от скорости стремления (в отдел ьности) ниж него предела к -оо, а верхнего -к +оо. По аналогии с дисперсией дискретной величины опре деляется и дисперсия непрерывной величины. Дисперсией непрерывной случайной величины называют математическое ожидание квадрата ее отклонения. Если возможные значения Х принадлежат отрезку [а, Ь], то ь D(X)=S[х-М(X)]2f(x)dx; а . 125
если возможные значения принадлежат всей оси х , то ао D(X) = S [x-M(XH1f (x) dx. -оо Среднее квадратическ.ое отклонение непрерывной слу чайной величины определяется , как и для величины диск ретной, равенством о(Х)=VD(Х). Зам е ч а н не 1. Можно доказать, что свойства математического ожидания и дисперсии дискретных величин сохраняются и для непре рывных величин. 3 а м е ч а н и е 2. Легко получить д.пя вычисления дисперсии более удобные формулы: ь D(Х)=sx2f(х)dx-[M(ХН1, а ао D(X) = s x8/ (x) dx-[M (X)]1• -ао Пример t. Найти математическое ожидание и дисперсию случай ной величины Х, зада нной функцией распределения {О при х<:;О, F(х)= х 1 при О<х.,.; ;; ;; ; 1, при х>1. Ре ш е н и е. Найдем плотность распределения: {О при х<:О, f(х)=рл(х)= 1 при О<х<1. О при х>1. Найдем математическое ожидание по формуле (*): 1 1 М(Х)=� x-1 -dx=x2/2!=1/2. Найдем дисперсию по формуле (11с11с): 1 1 D (Х) =� х2 . 1 .dх-[1/2]2=хз;з!- 1/4=1/12. Пример 2. Найти математическое ожидание и дисперсию непре рывной случайной вели чины Х, распределенной равномерно в интер вале (а, Ь). Решеи и е. Найдем математическое ожидание Х по формуле (•), учитывая, что мотность равномерного распределения f (х) = 1/(Ь -а) 126
(см.гл.XI,§6): ь ь М(Х)=Sxf(х)dx= Ь 1 а Sхdx. а а Выполнив элементарные выкладк и, получим М (Х) =(а+Ь)/2. Найдем дисперсию Х по формуле (**): ь ь D(X)=S x2f (х) dх -[М (Х)]2 = ь 1 aSx2dx-[ a tb] 2 • а а Выполнив элементарные выкладки, получим D(Х)=(Ь-а)2/12. 3 а м е ч а н и е 3. Математическое ожидание и дисперсия случай ной величины R, распределенной равномерно в интервале (О, 1), т. е . если а = О, Ь= 1 , как следует из примера 2, соответственно равны М (R) = 1/2, D (R) = 1/12. Эгот же результат мы получили в примере 1 по заданной функции распределения случайной вели чины R. § 2. Нормальное расп ределе ние Нормальным называют' распределение вероятно стей непрерывной сл учайной вел ичины-, которое описы вается плотностью f (х) = �е-<х-а)1/2а• . а f2л Мы видим, что нормальное распределен ие определяется двумя параметрами: а и cr. Достаточно знать эти пара метры, чтобы задать нормальное распределение. Покажем, что вероятностный смысл этих параметров таков : а есть математическое ожидание, а-среднее квадратическое отклонение нормального распределения. а) По определению математического ожидания непре рывной случайной величины, "" "" М(Х)=S xf(х)dx-= - 1- S хе-<х-а)•/2а• dx. О'ffn -Ф -Ф Введем новую переменную Z = (x -a)/o. Оrсюда x = oz +a. dx = о dz. Приняв во внимание, что новые пределы инте- 127
грирования равны старым, получим ф М(Х)= 0 S(az+a)e-2•12dz= oV2n -«> ф ф , =__!_ _ Saze-2212dz+-а - Sе-2•12 dz. r2n У2п -ао -Ф Первое из слагаемых равно нулю (под знаком интеграл а нечетная функция ; пределы интегрирования симметричны относительно начала координат) . Второе из слагаемых равно а ( интеграл Пу ассона } 00 е-2•12dz= Jf2n). Итак, М (Х) =а, т. е. математическое ожидание нор мального распределения равно параметру а. б) По определению дисперсии непрерывной случайной величины, учитывая, что М (Х) =а, имеем ф D(Х)= - 1 - 5(х-а)2 е-<х-а)•12 а• dx. оV23t-«> - Введем новую переменную Z=(x-a)/a. Отсюда x-a =az , dx =оdz. Приняв во внимание, что новые пределы инте грирования равны старым, получим со 02s D(X)= -- z·ze-2112 dz. Y2n-со Интегрируя по частям, положив и= z, dv = ze-2•12 dz, найдем D(Х)=02 • Следов ател ьно, о(Х)=VD(Х)=Jl(J2 =а. Ита к, среднее квадрати ческое откл онение ЩJрмального распределения равно параметру о. 3 а мечани е 1. Общим называют нормальное распределение с произвольными параметрами а и о (о > О). Нормированным называют нормальное распределение с парамет рами а=О и o = l. Например, <>ели Х-нормальная величина с пара метрами а и о, то 'U= (Х - а)/о - нормированная нормальная вели чина, причем М (V) =0, о (U)= 1. 128
Плотность нормированного распределения ()__1 _ -х•/2 q>х-"r- e . " 2л Эта функция табулирована (см. приложение 1). 3 а м е ч а н и е 2. Функция F (х) общего нормального распреде ления (см. гл. XI, § З) х F(x) = Q � s-оо e-<z-a)•/(20•) dz, а функция нормированного распределения х Fo(х)= -1 - s e-z•/ 2 dz. ffn-ао Функция F0 (х) табулирована. Легко проверить, что F (x) =F0 ((х- а)/<1). 3 а м е ч а н и е 3. Вероятность попадания нормированной нор мальной величины Х в интервал (О, х) можно найти, пользуясь х функцией Лапласа Ф (х) = -1 - S e-z•12 dz. Действительно (см. ytEtо гл. XI,§2), х х Р(О<Х<х)=Sq>(x)dx= .� S e-z•/2dz=Ф(x). о " 2nо 00 3амечание 4.Учитывая, что Sq>(х)dx=1 (см. гл. XI,§4, -ао свойство 2), и, следовательно, в силу симметрии q> (х) относительно нуля о Sq>(х)dx=0,5, а значит, и Р(-оо <Х<О)=0,5, -ао легко получить , что F0 (х) =О,5+ Ф (х). Действ ительно, �ОО=Р � � <Х<�=Р�оо < Х <�+Р� <Х <�= =0,5+Ф (х). ИlО 129
§з.н . ормальная кривая График плотности нормального распределения называют н ормально й кривой (кривой Гаусса ). Исследуем функцию у = __1_ е -(х-а)2/12а2) оу'21& методами дифференциального исчислен.и я. 1 . Оч евидно, функция определена на всей оси х. /(х) --с=+-- ---� , ---- �---,Х Рис. 7 2 . При всех значен иях х функция принимает поло� жительные значен ия, т. е . нормальная кривая располо жена над осью Ох. 3 Предел функции при нео граниченно м возрастании х (по абсолютной величине) равен нулю: lim у=О, т. е. \Х1-+оо ось Ох служит горизонтальной асимптотой графика. 4. Исследуем функцию на экстрему м. Найдем первую производную: '. х-а у'= - е-(х-а)2/(20'2) . оз v2n Легко видеть, что у'=О при х=а, у'>О при х<а, у'<Оприх>а. Следовательно, при х = а функция имеет максимум, равный l/(<J V2n). 5. Разность х-а содержится в аналитическом выра жении функции в квадрате, т. е. график функции сим метричен относительно прямой х = а. 6. Исследуем функцию на точки перегиба. Найдем вторую производную: 130 у"=- 1 е-<х-а)•/(20'') [1 _(х-а)2] о3 Y2n 02 •
Легко видеть, что при х =а+О' и х=а-о вторая производная равна нулю, а при переходе через эти точки она меняет знак (в обеих этих точках значение функции равно 1 /(о V2Л е)). Таким образом, точки графика (а -О', l/(O' V2ne)) и (а +о, l /(o V2ne)) являются точками пе· региба. На рис. 7 изображена нормальная кривая при а= 1 и О'=2. § 4. Влияние параметров нормал ьного распределения на форму нормальной кривой Выясним, как влияют на форму и расположение нормальной кривой значения параметров а и о. Известно, что графики функций f (х) и f (х-а) имеют оди наковую форму; сдвинув график f (х) в положитель· ном направлении оси х на а единиц масштаба при а > О или в от рицател ьном направ лении при а < О, полу чим график f (х -а). Отсюда сле· дует, что изменение вел и чины параметра а (математиче ского ожидания) не изменяет формы нормальной кривой, а приводит лишь к ее сдвигу вдоль оси Ох : вправо, если а возрастает, и влево , если а убывает . f(x) IS=I Рис. 8 По- иному обстоит дел о, если изменяется параметр о (среднее квадратическое отклонение). Как было указано в предыдущем параграфе, максимум дифференциальной функции нормального распределения равен 1/(о J/2Л). Отсюда следует, что с возрастанием о максимальная орди· ната нормальн ой кривой убывает, а сама кривая стано вится более пологой, т. е. сжимается к оси Ох; при убывании о нормальная кривая стан овится более «остро вершинной» и растягивается в положительном направле нии оси Оу. Подчеркнем, что пр�� любых значениях параметров а и о площадь, ограниченная нормальной кривой и осью х, остается равной еди нице (см. гл . XI, § 4, второе свойство плотности распределе ния). 131
На рис. 8 изображены нормальные кривые при раз личных значен иях а и а=О . Чертеж наглядно иллюстри рует, как изменение параметра а сказывается на форме нормальной кривой . Заметим, что при а=О и а = 1 нормальную кривую 1 q>(х)= -- е -х•12 называют нормирова нной . ffn § 5. Вероятность попадания в задан ный интервал нормальной случайной величины Уже известно, что если сл учайная вел ичина Х задана плотностью распредел ения f (х) , то вероятность того, что Х примет значение, принадлежащее интервалу (а, р), такова: � Р(а<Х<Р)=�f(х)dx. . а Пусть случайная вел ич ина Х рас предел ена по нор мальному закону. Тогда вероятность того, что Х примет значение, принадлежащее интервалу (а, �), равна � Р(а.< х < Р>=�5е-<х-а>•1<2а•> dx. а Y2n а; Преобразуем эту формулу так, чтобы можно было пол ьзоваться готовыми таблицами . Введем новую пере менную Z=(x - a)/a. Отсюда X =az +a, dx =adz. Найдем новые пределы интегрирован ия. Есл и х=а, то z =(a-a)/a; если Х=�. то Z=(�-a)/cr . 132 Таким образом, имеем (�-a)/cr Р(а<Х<�)= 1 _ S e-z•/2 (crdz) = а Jf2n (а-а)/а О (�- a)/cr =-- s e-z•/2 dz+ 1_ s e-z•/2dz= ffn(а - а )/а Jf2n О 1 = r2n (� - а)/а (а- а)/а s e-z•12 dz- 1 _ s e-z•12 dz. о Jf2n о
Пользуясь функцией Лапласа х Ф (х) = ;2n S е-2•12 dz, о ОIЮНЧателыю получим Р(а<Х<�)=Ф( f} 0а)-Ф(а0а). (*) Пример. Случайная величина Х распределена по нормальному закону. Математическое ожидание и среднее квадратическое откло нение этой величины соответственно равны 30 и 10. Найти вероят ность того, что Х примет значение , принадлежащее интервалу ( 10, 50). Реше н и е. Воспользуемся формулой (*). По условию, а= 10. f}=50 , а =ЗО, <J= 10, следовательно, р(10<Х<50)=Ф( 50 10 30 )-Ф ( 10 10 30 ) = 2Ф(2). По таблице приложения 2 находим Ф (2) = 0,4772. Отсюда, иско мая вероятность P ( IO < Х < 50)=2·0,4772 =0,9544. § 6. Вычисление веро ятности заданного отклонения Часто требуется вычислить вероятность того, что отклонение нормально распределенной случайной вели чины Х по абсолютной вел ичине меньше заданного по ложительного числа б, т. е . требуется на йти вероятность осуществления неравенства / Х-а / < б. Заменим это неравенство равносильным ем у двойным неравенством - 6 <Х- а<6, или а-6<Х<а+6. Пользуясь формулой (*) (см . § 5), пол учим Р(1Х-а/<6)=Р(а-6<Х <а+6)= = Ф[<а+�)-а] -Ф[<а-�)-а]=ф(�)-Ф(-�). Приняв во внимание равенство Ф(-6/о)= - Ф(б/а) (функция Лапласа - неяетная), окончательно имеем Р ( 1Х-'а 1<6) =2Ф (6/а). В часнюсти, при а = О P(IXI < 6) =2Ф (б/о). 133
На рис. 9 наглядно показано, что если две случай ные величины нормально распредел ены и а = О, то вероятность принять значение, принадлежащее интервалу (- б , б), /(х) Рис. 9 больше у той величины, кото рая имеет меньшее значение <f. Этот факт полностью соответ ствует вероятностному смысл у параметра С1 (о есть среднее квадратическое отклонен ие; оно характеризует рассеяние слу чайной величины вокруг ее математического ожидания). 3амечание. Очевидно , со- быти я, состоящv.е в осуществлении неравенств 1Х-а\<6 и \Х-а1� :; ;:, , 6, - противоположные. Поэтому , если вероятность осуществления неравенства 1 Х - а 1 < б равна р, то вероятность неравенства 1 Х-а 1 :; ;:, , 6 равна l-p . Пример. Случайная величина Х распределена нормально. Мате матическое ожидание и среднее квадратическое отклс нение Х соот ветственно равны 20 и 10. Найти вероятность того, что отклонение по абсолютной величине будет меньше трех. Р е ш е н и е. Воспользуемся формулой Р(\Х-а / < 6) =2Ф (6/о). По условию, 6 = 3, а=20, О'= 10. Следовател ьно, Р (1Х-201 <3)=2Ф(3/10)=2Ф(0,3). По таблице приложения 2 находим Ф (0,3) =О, 1179. Искомая вероятность Р(1Х-201<3)=0,2358. § 7. Правило трех сигм Преобразуем формулу ' (см . § 6) Р(1Х-а1<б)=2Ф(б/G), положив б = <f� . В итоге получим Р(\Х-а\<Gt)=2Ф(t). Если t = 3 и, следовательно, Gt = Зо, то • Р(\Х-а1<Зсr)=2Ф(3)=2 ·0,49865=0,9973, т. е . вероятность того, что отклонение по абсолютной величине будет меньше утроенного среднего квадратиче ского отклонен ия, равна 0,9973. 134
Другими словами , вероятность того, что абсолютная величина отклонения превысит утроенное среднее квадратическое отклонение, очень мала, а именно равна 0,0027. Это означает, что лишь в 0,27% случаев так может произойти. Такие события исходя из принципа невозмож ности маловероятных событий можно считать практически невозможным и. В этом и состоит сущность правила трех сигм : есл и сл учайная вели чина распределена нормально, то абсолютная величина ее отклонения от мате.матиче ского ожидания не превосходит утроенного ср еднего квад ратического отклонения. На практи ке правило трех сигм применяют так: если распределение изучаемой случайной величины неизвестно, но ус.тювие, указанное в приведенном правиле, выпол няетс я, то есть основание предполагать, что изучаемая величина распределена нормально; в противном случае она не распредел ена нормально. § 8. Пон ятие о теореме Ляпунова. Формулировка центральной предельной теоремы Известно, что нор�льно распределенные случай ные величины ши роко распространены на практике. Чем это объясняется? Ответ на этот вопрос был дан выдаю щимся русским математиком А. М . Ляпуновым (централь ная предельная теорема): если случайная вел ичина Х пред ставляет собой сумму очень большого числа вза имно неза виси.мых случайных величин, влияние - каждой из которых на всю су.м.му ничтожно мало, то Х имеет распределение, близкое к нормальному. Пример. Пусть производится измерение некоторой физической величины. Любое измерение дает лишь приближенное значение изме ряемой величины, так как на результат измерения влияют очень многие независимые случайные факторы (температура, колебания прибора, в.11ажность и др.) . · Каждый из этих факторов порождает ничтожную «частную ошибку». Однако, поскольку число этих факторов очень велико: их совокупное действие порождает уже заметную «суммар ную ошибку». Рассматривая суммарную ошибку как сумму очень большого числа взаимно независимых частных ошибок , мы вправе заключить, что суммарная ошибка имеет распределение, близкое к нормальному. Опыт подтверждает справедливость такого заключения. Приведем формулировку центральной предельной тео ремы, 1юторая устанавл ивает условия, при которых сумма 135
большого числа нез ависимых слагаемых имеет распреде ление, близкое к нормальному. Пусть Х1, Х 2 , •••, Хп, ...- п осJ1едовател ьность неза висимых случайных величин, каждая из которых имеет конечные математическое ожидание и дисперсию: М(Xk)=ak, D(Xk)=bi. Введем обозначен ия: Обозначим функцию распределен ия норми рованной суммы через Говорят, что к последовате.11 ьности Х1, Х 2 , •• • приме нима центральная предел ьная теорема, если при любом х функция распределен ия нормированной суммы при п -. . оо стремится 'к нормальной функции распределения : х limр[S"-A"<х] = I s e-z•/2dz. п�rr> В" Jf2n -00 В частности, если все сл уч айные величины Х1, Х 2 , ••• оди наково распределены, то к этой последовательности применима центральная предельная теорема, если диспер сии всех величин Хi(i=1 , 2, ...) 1юнечны и отличны от нуля. А. М. Ляпунов доказал , что если дл я б >О при п-+ оо отношение Ляпунова п Ln =Cn!B�+ 6 , где Сп =�М!Xk-akj2+6, k=I стремится к нулю (условие Ляпунова) , то к последова тельности Х 1, Х 2 , ••• применима централнная предел ьная теорема. Сущность условия Ля пунова состоит в требовании, чтобы каждое слагаемое суммы (Sп -Ап)!Вп оказывало на сумму ничтожное вл ияние. З а м е ч а н и е. Для дои;азательства центральной предельной тео ремы А . М. Ляпунов использовал аппарат характеристических функ ци й. Характеристиче�кой функцией случайной величины Х называют функцию <р (/) = М (etfX]. 136
Для дискретной случайной величины Х с возможными значениями Xk и их вероятностями Pk хара1<теристическая функция <р(t) =� eitxkPk· k Для непрерывной случайной величины Х с плотностью распре деления f (х) характеристическая функция "' <р(t)=� eifxf(х)dx. -оо МоЖно доказать, что характеристическая функция суммы неза ·в ис имых случайных величин равна произведению характеристических функций слагаемых. § 9. Оценка отклонения теоретического распределения от нормального. Асим!\1етри я и эксцесс Эмпирическим называют распределен ие относи -гелъных частот. Эм пирические рас пределения изучает математичес кая статистика. Теоретическим называют распредел ен ие вероятностей. Теоретические распределения изучает теория вероятностей. В этом параграфе рассматриваются теоретичес кие распре делен ия. При изучен ии распределен ий, отличных от нормаль ного, возникает необходимость количественно оценить это различие. С этой це.1ью вводят специальные характери стики, в частности асиммет рию и эксцесс. Дл я нормаль ного распредел ен ия эти характеристи ки равны нулю. Поэтому есл и для изучаемого распределен ия аси мметр ия и эксцесс имеют небол ьш ие значен ия, то можно предпо ложить бл изость этого распределен ия к нормальному. Наоборот, большие значения асимметрии и эксцесса ука зывают на значительное отклонение от нормального. l(ак оцен ить асимметрию? Можно доказать, что для симметричного распределения (граф ик такого распреде ления симметричен от носительно прямой х = М (Х)) каждый центральный момент нечетного поряю<а равен нулю. Для несимметричных распределен ий центра.пьные моменты не четного порядка от.тrичны от нуля. Поэтому любой из этих моментов (кроме момента первого порядка , который равен нулю для JIIoбoro распределен ия) может сл ужить для оценки асимметри и; естественно выбрать простей ший из них, т. е. момент третьего порядка μ3• Одн ако принять этот момент для оценки аси мметр ии неудобно потом у, что 137
его величина зависит от единиц, в 1юторых измеряется случайная величина. Чтобы устранить этот недостаток, μ3 дел ят на cr 3 и таким образом получают безразмерную характеристику. Асимметрией теорети ческого распределения называют отношение центрального момента третьего порядка к кубу среднего квадратичес1юго отклонен ия : As = μ3/О"з. Асимметрия положительна, если «длинная часть» кри вой распределения расположена справа от математического f(X) о) Mo fXJ Рис. 10 х ожидания; аси мметрия отр и цательна, если «длинная часть» кривой расположена слева от математического ожидания .· Практически оп ределяют знак асимметрии по расположению кривой рас пределен ия относительно мо ды (точки максимума диффе ренциальной функции): если «длинная часть» кривой рас положена правее моды , то асимметрия положительна (рис. 10, а), если слева отрицательна (рис. 1 О, 6) . Для оценки «крутости», т. е . большего или меньшего подъема кривой теоретического распределения по сравне нию с нормальной кривой, польз уются характеристи кой - эксцессом. Эксцессом теорети ческого распределения называют ха рактеристи ку, которая опре деляется равенством Ek = (μ4/cr 4)-3. Для нормального рас пределения μ4/cr 4 = 3; сле довательно, эксцесс равен нулю. Поэтому если экс цесс некоторого распре делен ия отличен от нуля, то кривая этого распределе- 138 /(х) а) Норм аАьная 1<риван '( __ .. .. / / 1 1 1 о�- -- -- -- -� х f(x) б) Нор маА ъная .-. . -/\ кри ва1< � Ctt <О �/ \<� �о+- -- -- -- -- -х Рис. 1t
ния отличается от нормальной кривой: если эксцесс положительный, то кривая имеет более высокую и «острую» вершину, чем нормальная кривая (рис. 11, а); если эксцесс отрицательный, то сравниваемая кривая имеет более низ кую и «плоск ую» вершину, чем нормальная кривая (рис. 11, 6). При этом предполагается, что нормальное и теоретическое распределения имеют од инаковые матема тические ожидания и дисперсии . § 10. Функци я одного случайного аргумента и ее распределение Предварительно заметим, что далее, вместо того чтобы говорить «закон распределения вероятностей>>. бу дем часто говорить кратко -«распределение». Если каждом у возможному значению случайной вели чины Х соответствует одно возможное значение случайной величины У, то У называют функцией случай ного аргу мента Х: у=<р(Х). Далее показано, как найти распределение функции по известному распределению дискретного и непрерывного аргумента. l. Пусть аргумент Х-дискретная слу чайная величина. а ) Если различным возможным значениям аргумента Х соответствуют различные возможные значения функции У, то вероятности соответствующих значений Х и У между собой равны. Пример 1. Дискретная случайная величина Х задана распреде лением х2 3 р 0,6 0,4 Найти распределение функции У=Х2 • Решени е. Найдем возможные значения У :у1 =22 = 4; у2 = 32 = = 9. Напишем искомое распределение У: у 4 9 р 0,6 0,4 б) Если различным возможным значениям Х соответ ствуют значен ия У, среди которых есть равные между собой, то следует складывать вероятности повторяющихся значений У. 139
Пример 2. Дискретная случайная величина Х задана распреде лением х-22з р 0,4 0,5 0,1 Найти распределение функции У=Х 2• Решен и е. Вероятность возможного значения у1 =4 равна сумме вероятностей несовместных событий Х = - 2, Х = 2, т. е. 0,4+О,5= = 0,9. Вероятность возможного значения у2 =9 равна 0, 1. Напишем искомое распределение У: у4 9 р 0,9 0,1 2 . Пусть аргумент Х-неп рерывна я слу чайная вел и чина. Как найти распредел ение функ ции У = <р (Х), зная плотность распредел ения случайного аргумента Х? Доказано: есл и у=<р (х) - диффе ренцируе ма я строго воз растающа я или строго убывающая функци я. обратная функция кото рой х = ф (у) , то плотность рас пределения g(y) случайной величины У находится с по мощью равенства g(y)=f[Ф(у)]IФ'(у)1· Пример 3. Случайная величина Х распределена нормально, при чем ее математическое ожидание а=О. Найти распределение функ ции У =Х3• Реше н и е. Так как функция у=х3 дифференцируема и строго возрастает, то можно применить формул у g(у)=f['\'(у)]1'Ф'(у)1. Найдем функцию, обратную функции у=х3; '\' (у) =х=у1fз. Найдем f ['Ф(у)]. По условию, I f(х)= o _ "V2Л _2_:rt_ e- x•/ 2 0•' поэтому f[-ф(у)]=f(у1/з]= I е-У2/зf20• • о у2п Найдем производную обратной функции по у: ,()(�/з)' l 'Фи=и = 3у21з· Найдем искомую плотность распределения, для чего подставим (•*) и (•••) и (•): _140 1 2/8/ g(у)=--,. .. .- -==- е-и 20• З сrу2/3 Y2n
3 а м е ч а н и е. Пользуясь формулой (*), можно доказать, что линейная функция У=АХ + В нормально распределенного аргумен та Х также распределена нормально, причем для того чтоб ы найти математическое ожидание У, н адо в выражение функции подставить вместо аргумента Х его математическое ожидание а: М (У )=Аа+В; для того чтобы найти среднее квадратическое отклонение У, н адо среднее квадратическое отклонение аргумента Х умножить на модуль коэффи циента при Х: а(У)=/А1cr(Х). Пример 4. Найти пло1 ность распределения линейной функции У=ЗХ + 1, если аргумент распределен нормально, причем математи ческое ожидание Х равно 2 и среднее квадратическое отклоне ние равно 0,5. ,- Решение. Найдем математическое ожида ние У; м(У)=3.2+1=7. Найдем среднее квадратическое отклонение У: О' (У)=3 .0,5=1,5. Искомая плотность распределения имеет вид (у) 1 e-<u-7)'/[2 ·0 ,511) g= 1.5У2п § 11. Математическое ожидание функции одного случа йного аргумента Задана функция У = (р (Х) случайного аргумента Х. Требуется найти математическое ожидание этой функ ции, зная закон распределения аргумента . 1. Л у сть аргумент Х -д иск ретная сл учай на я вел ичина с возможными значениями х1, х2, •••, хп, вероятности кото рых соответственно равны р1, р2 , • ••, Рп· Очевидн о , У -также диск ретн ая случайная вел ичина с возможными значениями у1 =ер(х1 ) , У2 = q:> (х2), •••, Уп = = ер(хп ). Так и:ак событие «величина Х приняла значе ние Х;» ВJiечет за собой событие «величина У приняла значение ер (х;)», то вероятности во зможных значений У со ответственно равны р1 , р 2 , •••, Рп · Сдедовательно, мате матическое ожидание функции п М[ер(Х)]=�ер(х;)р1• i=1 Пример !.Дискретна я СJ1учайная величина Х задана распределением х1 3 5 р 0,2 0,5 0,3 141
Найти математическое ожидание функции У=q> (Х)= Х2 + 1. Решение. Найдем возможные значения У: ч> (1)=1 2+1 =2; q> (3)=32+1=10; ч> (5) =52+1 =26. Искомое математическое ожидание функции У равно м rx2+I]=2.o,2+ ю.о,5+2в.о,з= 13,2. 2. Пусть аргумент Х-непрерывная слу ч а й н а я вели ч и н а, заданная плотностью распределе ния f (х). Для отыскания математического ожидания функции У = ер (Х) можно сначала найти плотность рас пределения g (у) величины У, а затем воспользоваться формулой 00 м(У)= s yg(y)dy. -оо Однако ес.тrи отыс кание функции g (у) является затруд нительным, то можно непосредственно найти математиче ское ожидание функции <р (Х) по формуле 00 М[ер(Х)]=S ер(х)f(х)dx. В частности, если возможные значения Х принадлежат интервалу (а, Ь), то ь М[<р(Х)]=S<р(x)f(х)dx. (**) а Опуская доказательство, заметим, что оно аналогично доказательству формулы ( *) , если заменить суммирова ние интегрированием, а вероятность - элементом вероят ности f (х) Лх. Пример 2. Непрерывная случайная величина Х задана плот ностью распределения f (х) = siп х в интервале (О, л/2); вне этого интервала f (х) =О. Найти математическое ожидание функции Y=q> (X)=X2. Решение. Воспользуемся формулой (**)· По условию, f (х) = = sin х, ч>(х)=х2, а=О, Ь =n/2. Следовательно, n,/2 М[q>(Х)]=S х2sinxdx. о· Интегрируя по частям, получим искомое математическое ожидание М [X2]=n-2. 142
§ 12. Функция двух случайных аргументов. Расп ределе ние суммы независимых слагаемых. Устойчивость нормального распределения Если каждой паре возможных значений случай ных величин Х и У соответствует одно возможное зна чен ие случайной величины Z, то Z называют фун кцией двух случайных аргументов Х и У: Z=1Р(Х,У). Далее на ·примерах будет показано, как найти рас пределение функции Z = Х +У по известным распреде лениям слагаемых. Такая задача часто встречается на практи ке. Например, если Х - погрешность показаний измерительного прибора (распредел ена нормально) , У - погрешность округлен ия показаний до ближайшего деле ния шкалы (распределена равномерно), то возникает задача - найти закон распределения суммы погрешностей Z =X+Y. 1. Пусть Х и У�дискретные независимые с л уча й н ы е вели чины. Для того чтобы составить закон распределения функции Z = Х +У, надо найти все возможные зн ачения Z и их вероятности . Пример t. Дискретные независимые случайные величины заданы распределениями: х1 2 у3 4 р 0,4 0,6 р 0,2 0,8 Соста вить расп ределение случайной величины Z = Х + У. Реше н и е. Возможные значения Z есть суммы каждого возмож ного значения Х со всеми возможными значениям11 У: Z1=1+3=4; z2=1+4=5; Zз =2+3:- -с 5; Z4 =2+4=6. Найдем вероятности этих возможных значений. Для того чтобы Z = 4, достаточно, чтобы величина Х приняла значение х1 = 1 и величина У -значение у1 =3. Вероятности этих возможных значе ний, как СJiедует из данных законов распределения, соответственно равны 0,4 и 0,2. Аргументы Х и У независимы , поэтому события Х = 1 и У = 3 независимы и, следовательно , вероятность их совместного наступле ния (т. е . вероятность события Z = 1 + 3 = 4) по теореме умножения равна 0,4-0,2 =0,08 . Аналогично найдем: Р(Z=1+4=5)=0,4 .О,8 =0,32; Р (Z=2+ 3=5) =0,6 .О,2 =0, 12; Р (Z'-'2-r 4=6)=0 ,6 -0,8 = 0 ,48. 143
Напишем искомое расп ределение, сложив предварятельно вероят ности несовместных событий Z=z2, Z=z3 (0,32 + 0,12=0,44): z4 5 6 р 0,08 0,44 0,48 коИ троль: о,о8+о,44+о,48=1. 2.Пусть Х и У-непрерывные случайные вели ч и н ы. Доказано: если Х и У независимы, то плотн ость распределения g (z) суммы Z = Х + У (при услови и, что плотность хотя бы одн ого из аргументов задана на интервале (-ею, ею ) одн ой формулой) может быть найдена с помощью равенства ф g(z)= � f1(х)f2(z-x)dx либо с помощью равносильного равенства ф g(z)= � /1(z-y)f2 (y)dy, (**) где f 1 , f 2 - плотности распределения аргументов. Если возможные значения аргументов неотрицательны, то g (z) находят по формуле :z g(z)=�f1(х)f2(z-x)dx, о либо по равносильной формуле :z g(z)=�f1(z-y>f2(y)dy. о Плотность распределения суммы независимых случай ных величин называют композиц ией . Закон распределения вероятностей называют устой чивым, если композиция таких законов есть тот же закон (оrличающийся , вообще говоря, параметрами ) . Нормаль ю�1й закон обладает свойством устойчивости : композиция нормальных законов также имеет нормальное распреде ление (математическое ожида ние и дисперсия этой ком позиции равны соответственно суммам математических ожиданий и дисперсий слагаемых). Например, если Х и У - независимые случайные вел ичины, распределенные нормально с математическими ожида ниями и диспер- 144
сиями , соответственно равными а1 =3, а2 = 4, D1 = 1 , D2 = 0,5, то композиция этих величин (т. е. плотность вероятности суммы Z = Х +У) также распределена нор мально, причем математическое ожида ние и дисперсия композиции соответственно равны а=3 + 4 = 7; D = 1 + +0,5 = 1,5. Пример 2. Независимые случайные величины Х и У заданы плотностями распределений: f(x)=� e-xfз (О�х< оо); f(у)={ е-У14 (О�у< оо). Найти композицию этих законов , т. е. плотность распределения слу- чайной величины Z = Х +У. . Решение. Возможные значения аргументов неотрицательны, поэтому воспользуемся формулой (***) z z g(z)=J/1(х)/2(z-x)dx=�[+е-х;з • ][�e-<z-x)/4] dx= z =1�e-z/4Sе-х/12dx=e-z/4(I_e - z/12) . о Заметим, что эдесь z �О, так как Z = Х +У и, по условию, воз можные значения Х и У неотрицате.'lьны . Рекомендуем читателю для контроля убедиться, что 00 �g(z) dz= 1 . о В следующих далее параграфах кратко описаны рас пределения, связанные с нормал ьным, которые будут использованы при изложении математической статистики . § 13. Распределение «ХН квадрат» Пусть Х;(i = 1,2, . .., п)-нормальные незави симые случайные величины, причем математическое ожи · дание каждой из них равно нулю, а среднее квадрати ческое отклонение - еди нице. Тогда сумма квадратов этих вел ичин 145
распределена по закону х2 («хи квадрат») с k = п степе нями свободы; если же эти величины связаны одн им ли- нейным соотношением, например � Хi = пХ, то число степеней свободы k = п-1 . Плотность этого распределения f(х)={ ? е-х/2 x<kf2>-1 2kl2 r (k/2) 00 при х�О, при х >О, где Г (х) = S tx-i e-t dt - гамма-функция; в частности, о Г(п + l )=п!. Отсюда видно, что распределение «ХИ квадрат» опре дел яется од ним параметром- числом степеней свободы k . С увел ичением числа сте пеней свободы распределение медленно приближается к нормальному. § 14. Распределение Стьюдента Пусть Z-нормальная случайная величина, причем М (Z) =О, <J (Z) = 1, а V-независимая от Z веJiичина, которая распределена по закону х2 с k степенями сво боды . Тогда величина z Т- - - YV/ k имеет распределение, которое называют /-распределен ием или распределением Стьюдента (псевдон им английского статистика В. Госсета), с k степенями свободы . Итак, отношение нормированной нормальной величины к квадратному корню из независимой случайной вели чины, распределенной по закону «хи квадрат» с k степе нями свободы , деленной на k , распредел ено по закону Стьюде нта с k степенями свободы . С возрастанием числа степеней свободы распределение Стьюдента быстро прибл ижается к нормальному. Допол нительные сведен ия об этом распределении приведены далее (см. гл. XVI, § 16). 146
§ 15. Распределение F Фишера - Снедекора Если U и V - независимые случайные величины, распределенные по закон у х,2 со степенями свободы k1 и k2, то вел ичина имеет распределен ие, которое называют распределен ием F Фишера - Снедекора со степенями свободы ki и k 2 (иногда его обоз начают через V2). где Плотность этого распределен ия при х<О, f(х)={ С х <�-2)/2 о k k>! прих>О, (k2+k1x)< ,+ • 2 г (ki+k2) kk,/2 kk,/2 2 1 2 Со= г (k1/2) г (k2/2) • Мы видим, что распределен ие F определяется двумя пара метрами - числами степеней свободы . Дополнительные сведения об этом распредел ении приведены далее (см. гл. XIX, § 8). Задачи 1. Найти математическое ожидание и дисперсию случайной величины Х, зная ее плотность распределения: r1 а) f(х) "r при -1<х<1, f(х) =О при остальных :п;уl-x2 значениях х; l б) f(х)=2Т при a-1..; ;; ;; x..; ;; ;; a+l, f(x) =O при остальных зна- чениях х. Отв. а) М(Х) =О, D(X)=l/2; б) М(Х) = а , D(X) =l2/3. 2. Случайная· величина Х распределена нормально. Математи ческое ожидание и среднее квадратическое отклонение этой величины соответстве нно равны 6 и 2. Найти вероятность того, что в резуль тате испытания Х примет значение, заключенное в интервале (4,8). Отв. 0,6826 . 3. Случайная величина распределена нормально. Среднее квад ратическое отклонение этой величины равно 0,4. Найти вероятность того, что отклонение случайной ве.1ичины от ее математического ожи дания по абсолютной ве.'Jичине будет меньше 0,3. Отв. 0,5468. 147
4. Случайные ошибки измерения подчинены нормальному закону со средним квадратически111 отклонением а = l мм и математическим ожиданием а=О. Найти вероятность того , что из двух независимых наблюдений ошибка хотя бы одного из них не превзойдет по абсо лютной величине 1,28 мм. Отв. 0,96. 5. Валики, изготовляемые автоматом, считаются стандартными , если отклонение диаметра ваJшка от проектного размера не превы шает 2 мм. ()1учаi! ные отклонения диаметра валиков подчиняются нормальному закону со средним квадратическнм отклонением а=1,6 мм и математическим ожиданием а=О. Сколько процентов стандартных валиков изготовл яет автомат? Отв. Примерно 79%. 6. Ди скретная слу<1айная величина Х задана законом распреде ления: а)Х р 1 2 0,2 0,1 3 0,7 б)х р -1 о,1 1 2 0,2 0,7 Найти закон распределения слу•1айной вели чины У=Х4• Отв.а)У1 1681 б)УJ16 р 0,2 О,1 О,7 р 0,3 О,7 7. Неп рерывная случайная величина Х задана плотностью рас пределе ния f (х). Найти дифференциальную функцию g (у) случайной величины У, если: а)У=Х+1(-оо<х<оо);б)У=2Х(-а<х<а). Отв. а) g(y)=f(y-1)(- оо <у<оо); б)g(у)={-f(�)(-2а<у<2а). 8. Независимые дискретные случа йные величины заданы следую щими законами распреде.1е ния: х235 р 0,3 0,5 0,2 у 4 р 0,2 0,8 Найти заксны распределения функций: а) Z=X+Y; б) Z=XY. 9 Отв.а)Z 3 4 6 7 р 0,06 О,10 0,28 0,40 б)z 2 3 5 8 р 0,06 0,10 0,04 0,24 О, 16 12 20 0,40 О, 16 9. Независимые случайные величины Х и У заданы плотностямlf расп ределений f1(х) =..!_e-x/:i 3 f()- 1 �{1/5 2х-5е (О..:; ;; ; х< оо); (О..; ;; ; у<оо). Найти композицию этих законов, т. е . плотность распределения случайной величины Z = Х + У. 148 {..!_e-zfь (1 - e -2z/15) при z�О; Отв. g(z) = 2 О . при z <О.
Глава тр инадцатая 1101(АЗАТЕЛЬН ОЕ РАСПРЕДЕЛЕНИЕ § 1 . Определение показател ьного распределения Показател ьным (экспо ненц иальным) называют распредел ение ве роятностей непрерывной сл учайной вел и чины Х . которое описываетс я плотностью {О при х <О, f(х)= Ле-Лх при х�О, где Л- постоянная положи тел ьная величина. Мы видим, что показательное распределен ие опреде ляется одн им параметром Л. Эта особенность показа тельного распределения указывает на его преимущество f( x) F(x) '\_ __ 1 .1о Рис. 12 по сравнению с распределениями , зависящими от боль шего числа параметров. Обычно параметры неизвестны и при ходится на ходить их оценки (приближенные значе н и я); разу меется, проще оценить один па раметр, чем два ил и три и т. д. Примером непрерывной случайной вел и ч и ны, распределенной по показательному закону, может служить время между появлен иями дву х последовател ь ных событий простейшего потока (см. § 5) . Найдем функцию распределен ия показательного закона (см. гл. XI,§3): х о х F(х)=�f(х)dx= � Odx+'). ., �е-Лхdx= 1-е - Лх. -оо -оо о •. Итак, F(х)={ 1-е О -лх при х <О, при х�О. 149
Ivlы определ или показательный закон с помощью плот ности распределения; ясно, что его можно оп редел ить, использу я функцию распредел ени я. Графи ки плотности и фу нкции распределен ия показа тельного закона изоб ражены на рис. 12 . Пример. Написать плотность и функцию распределения показа тельного закона, если параметр Л=8. Решение. Очевидно, искомая плотность распределения f(х)=Ве-вх при х;:;,О; f(х)=О при х<О. Искомая функция распределения F(x)=I-e -вx при х ;:;,О; F(x) =O при х <О. § 2. Вероятность попадания в задан ный интервал показател ьно распределенной случайной величины Найдем ве р оятность попадания в интервал (а, Ь) непрерывной случайной величины Х. которая распреде лена по показател ьному закону, заданному функцией распределен ия F(х)=1-е -Лх (х�О). Используем формулу (см. гл . Х, § 2, следствие 1 ) Р(а<Х <b)=F(b)-F(a). Учитывая, что F(a) = l-e-Лa, F(Ь) = l-е -ль , получим Р(а<Х<Ь)=е-Ла_е-ль. Значен ия функции е-х находят по таблице . Пример. Непрерывная случайная величина Х распределена по показательному закону f(x)=2e-2x при х�О; f(x)=O при х <О. Найти вероятность того, что в результате испытания Х попадает в интервал (0,3, 1). 150 Решение. По условию, Л = 2. Воспользуемся формулой (*): р(0,3<Х<l)=е - <2·0,З) _е - <2· 1)=е - О,6_е - 2= =0 ,54881 -0, 13534 :: :, ,, , 0,41 .
§ 3. Числовые характеристики показательного распределе н ия Пусть неп рерывная сл учайная вел ичина Х рас пределена по показател ьному закону {О при х<О, f(х)= Ле-Л.х при х�О. Найдем математическое ожидание (см . гл . Х II, § 1): 00 00 М(Х)=� xf(х)dx=Л�хе-Лхdх. о о Интегрируя по част·ям, получим М(Х)=1/Л. Таким об разом, htате.матическое ожидание показатель ного распределения равно обратной вел ичине параметра Л . Найдем дисперсию (см. гл . XII, § 1): 00 00 D(Х)=�x2f(х)dx-[M(Х)]2= Л�х2е-Лхdх-1/Л.2• о о Интегрируя по частям, получим Следовател ьно, 00 Л �х2е-лхdх =2/Л2• о D(Х)= l/Л2• Найдем среднее квадратическое отклонение, для чего извлечем квадратный корень из дисперси и: а(Х)=1/Л. Сравнивая (*) и (;.,:.;.:.), заключаем, что . М(Х)=а(Х)=1/Л, т. е. мате.�tатическое ожидание и среднее квадрат ическое отклонение потсазательного распределения равны между собой. Пример. Непрерывная сл учайная величина Х распределена по показател ьному закону f(x)=5e-�x при х:;?-:0; f(Х)=О при х<О. 151
Найти математическое ожидание , среднее квадратическое отклонение и дисперсию Х. Р ешени е . По ус.11 uвию, Л = 5. Следовательно, М (Х) =cr (Х) = l/Л = l/5=0,2; D (Х) = 1/).2 = 1/52 =0,04. 3 а м е ч а н и е 1. Пусть на практике изучается показательно распредел енная с,1учаi\ная величина, причем параметр Л неизвесте н. Если математическое ожидание также неизвестно, то находят его оценку (прибл иженное значение), в качестве которой принимают выборочную среднюю х (см. гл . XVI, § 5). Тогда приближенное зна чение параметра Л на ходят с помощью равенства Л*=!/Х. 3 а мечани е 2. Допустим, имеются основания предположить, что изучаемая на практике случайная величина имеет показательное расп ределение. Для того чт сбы проверить эту гипотезу, на ходят оценки математического ожидания и среднего квадрати ческого откло нения, т. е . находят выборо чную среднюю и выборочное среднее квадратическое отклонение (см. гл. XVI, § 5, 9). Математическое ожидание и среднее квадратическvе отклонение показательного рас пределения равны между собой, поэтому их оценки должны разли чаться не-значительно. Если оценки окажутся близкими од на к дру гой, то данные наблюдений подтвер ждают гипотезу о показательном распределении изучаемой величины; если же оценки разл ичаются существенно, то гипотезу следует отвергнуть. Показательное расп ределение широко применяется в приложен иях, в частности в теории надежности, одн им из основных понятий которой является функция надеж ности . § 4. Функци я н адежности Будем называть элел1енто.м некоторое устройство не::iависимо от того, «простое» оно или «сложное». Пусть элемент начинает работать в момент времени /0 =0, а по истечении времени длительностью t происходит отказ. Обозначим через Т неп рерывную сл учайную величину - длител ьность времени безотказной работы элемента . Если э.1емент про работал безотказно (до насту плен ия от каза) время . меньшее t, то, следовател ьно. за время длител ь ностью t наступит отказ . Та ким образом, функция распределения F (t)= Р(Т< t) оп реде.п яет вероятность отк аза за время длитель ностью t. Следовател ьно, вероятность безотказной работы за это же время дл ительностью t, т. е . вероятность про тивоположного события Т > t, равна 152 R(t) ==P(T >t) = l -F (t). (*)
Функцией надежности R (t) называют функщ1ю, опре деляющую вероятность безотказной работы элемента за время длительностью t: R(t)=Р(Т>t). § 5. Показательный закон надежности Часто длительность времени безотказной работы элемента имеет показател ьное распределе ние, функция распределен ия которого F(t)=1 -e-"-t. Следовательно, в силу соотношения (·*) предыдущего па раграфа функция надеж ности в случае показательного распределения времени безотказной работы элемента и меет вид R(t)=1 -F(t)=l -(I-e-"-1)=е-"-1• Показател ьным законом надежности называют функ цию надежности, определ яемую равенством R(t).е-л.1, где Л - интенсивность отказов. Как следует из определения функции надежности (см. § 4), эта формула позволяет найти вероятность без отказной работы элемента на интервале времени длитель ностью t, еСJ1И время безотказной работы имеет. показа тельное распредел ение. Пример. Время безотказной работы элемента распределено по показательному закону f (t) = 0,02e -o,02t при t �О (t - время). Найти вероятность того, что элемент проработает безотказно 100 ч. Решение. По условию, постоянная интенсив ность отказов Л=О,02. Воспользуемся формулой (*): R(100)=е -0 · 02·1 °0 =е-2 =0,13534. Искомая вероятность того , что элемент проработает безотказно 100 ч, приближенно {.>авиа 0,14. 3 а м е ч а н и е. Если отказы элементов в случайные моменты времени образуют простейшиii поток, то вероятность того , что за время длительностью t не наступит ни одного отказа (см. гл. VI , § 6), Pt (О)=e-A.t, что согласуется с равенством (*), поскольку Л в обеих формулах имеет один и тот же смысл (постоянная интенсивность отказов). 153
§ 6. Характеристи ческое свойство показательного закона надежности Показател ьный закон надежности весьма прост и удобен для решения задач , возникающ их на практи ке. Очень многие формулы теории надеж ности значительно упрощаются. Объ ясняется это тем, что этот закон обла дает следующим важным свойством: вероятность безот казной работы элемента на интервале вре.1tt ени длитель ностыо t не зависит от времени предшествующей работы до начала рассматриваемого интервала, а зависит только от длительност и времени t ( при заданной интенсивно сти отказов Л.). Для доказательства свойства введем обо значения со бытий :· А - безотказная работа элемента на интервале (О, t0) длительностью t0; В-безотказная работа на интервале (t0, t0 +t) длительностью t. Тогда АВ-безотказная ра бота на интервале (О, t0 + t) длительностью t0 + t. Найдем вероятности этих событ ий по формуле (*) (см. § 5): Р(А)=е-л.tо, Р(В)=е -м, Р(АВ)=е-л<to+t> =е-Мое-'Лt. Найдем условную вероятность того, что элемент будет работать безотказно на интервале (t0, t0 + t) при условии , что он уже проработал безотказно на предшествующем интервале (О, t0) (см. гл . III, § 2): р (В)- Р (АВ) А - Р(А) Полученная формула не содержит t0, а соде ржит только t. Это и означает, что время работы на предшест вующем интервале не сказывается на величине вероятно сти Ссзотказной работы на последующем интервале, а зависн г только от длины последующего интервала, что и треGовалось до казать. Полученный результат можно сфор мули ровать несколь ко иначе. Сравнив вероятности Р (В) = е -М и РА (В)=е- лt , заключаем: условная вероятность безотказной работы эле мента на интервале дл ительностью t, вычисленная в пред положении, что элемент проработал безотказно на пред шествующем интервале, равна безусловной вероятности . 154
Итак, в случае показательного закона надежности безотказная работа элемента «В прошлом» не сказывается на величине вероятности его безотказной работы «в бл и жайшем будущем». 3 а м е ч а н и е. Можно доказать , что рассматриваемым свойством обладает тол ь к о показательное распределение. Поэтому если на пракrике изучаемая случайная величина этим свойством обладает, то она распределена по показательному закону. Например, при допу щении , что метеориты распределены равномерно в пространстве и во времени, вероятность попадания метеорита в космический коμабль не зависит от того , попадали или не попадали метеориты в корабль до начала рассматриваемого интервала времени. Следовател ьно, слу чайные моменты времени попадания метеоритов в космический корабль распределены по показательному закону. Задачи 1. Написать функцию распределения F (х) и плотность вероятности f (х) непрерывной случайной величины Х, распределен ной по показательному закону с параметром Л = 5 . Отв. f (х) =5е-5х при х�О; f(x) =O при х <О; F(x)=I-e-5x. 2. Непрерывная случайная величина Х распределена по пока зательному закону: f (х) =5е- 5х при х�О, f (Х) =О при х <О. Найти вероятность того, что в результате испытания Х попадет в интер вал (0,4, 1 ). Отв. Р (0,4 < Х < 1)=0,13. 3. . Непрерывная случайная величина Х распределена по показа тельному закону f (х) = 4е -4Х (х > О). Найти математическое ожида ние, среднее квадμатическое отклонение и дисперсию Х . Отв. M(X) = u.(X) =0,25; D(X) = 0,0625. 4. Время безотказной работы элемента распределено по показа тельному закону f(t)=0,01 e- o,olt (t >О), где !-время, ч. Найти вероятность того, что элемент проработает безотказно 100 ч. Отв. R (100) =0,37 . Глава четырнадцатая СИСТЕМА ДВУ Х СЛУЧАЙНЫХ ВЕЛИЧИН § 1. Понятие о системе нескольких случайных величин До сих пор рассматривались случайные вели чины, воз можные значения которых определ ялись одн им числом . Такие величины называют одномерны ми . Н апри мер, число очков, которое может выпасть при бросании игральной кости, - дискретная одномерная вел ичина; рас- 155
стояние от орудия до места падени я снаряда - непрерыв ная одн омерная случайная величина. Кроме одномерных сл учайных вел ичин изучают вели чины, возможные значения которых определ яются двумя, т.ремя, . . . , п чис.пами. Такие величины называются соот ветственно двумерными , трехмерными, ..., п-мерными . Будем обозначать через (Х, У) двумерную случайную величину. Каждую из величин Х и У называют состав ляющей (компонентой); обе вел ичины Х и У, рассматри ваемые одн овременно, образуют систему двух сл учайных величин. Аналогично п-мерную величину можно рассмат ривать как систему п случайных ве.'l ичин. Например, трех мерная величина (Х , У, Z) определяет систему трех сл учайных величин Х, У и Z. Пример. Станок-автомат штампует стальные шштки. Если конт ролируемыми размерами яв.1яются дл ина Х и ширина У, то имеем двумерную случайную величину (Х, У); если же контролируется и высота Z, то имеем трехмерную величину (Х, У, Z). Двумерную случайную величину (Х , У) геометрически можно истолковать либо как случайную точку М (Х, У) на плоскости (т. е. ка1{ точку со случайными координатами), либо как сл учайный век- тс р ОМ. Трехмерную случайную величину геометри чески можно ис толковать как точку М (Х, У, Z) в трехмерном пространстве или как вектор ОМ. Целесообразно различать дискретные (составляющие этих вели чин дискретны) и неп рерывные (составл яющие этих величин неп ре рывны) многомерные случайные величины. § 2. Закон распределения вероятностей дискретной двумерной случайной величины Законом распреде.ления д и ск ретн ой двумерной сл у чайной величины называют перечень возможных Значений этой вел ичины, т. е . пар чисел (х;, Yi) и их вероятно стей p(xi, Yi)(i=l , 2, ..., п; j=l , 2, ..., т). Обычно закон распределения задают в виде таблицы с двойным вх одом (табл . 2). Первая строка табл ицы содержит все возможные зна чения состаВJ1яющей Х, а первый столбец- все возможные значения соста1тяющей У. В клетке, стоящей на пере сечении «столбца xi» и «строки Yi», указана вероятность р (х;, yj ) того. что двумерная случайная величина примет значение (х;, yi). Так как события (X =xi, Y=y1)(i= 1, 2, . . . , п; j=1, 2, . . . , т) образуют полную группу(см. гл. II,§2), 156
то сумма вероятностей , помещенных во вс ех клетках таб лицы, равна един ице . у У1 ... У/ .. . Ут 11 1 1 1 х, Р(х1, У1) ... Р (х1. У1) ... Р (х1, Ут) 1 1 1 1 1 1 х. р (Х2, У1) . . . р(х2 . У1) .. . Р (х2, Ут) х 1·.·1 1· . · 1 1· . · 1 1·. ·1 1 ·.· 1 Х; Р(х;, У1) . . . Р (х;, Yj) ... Р (х;, Ут) Таблица 2 1·.·1 хп Р(Хп, У1) 1· . ·1 ... 1·.·1 Р(хп. Yj) 1· . · 1 ... 1· . · 1Р(Хп, Ут) Зная закон распредел ения двумерной дискретной слу чайной величины, можно найти законы расп ределения каждой из составляющи х. Действител ьно, например, со бытия (Х=Х1; У=у1), (Х=х1; У=у2), • • • , (Х=х1; У=Ут) несовместны, поэтому вероятность Р (х1) то�о, что Х при мет значение х1 , по теореме сложения такова : Р(х1)=Р(х1, У1)+Р(хр У2)+· · · +Р(Х1, Ут)· Таким образом, вероятность того, что Х примет зна чение х1 , равна сумме вероят ностей «столбца х1». В об щем случае, для того q тобы найти вероятность Р (Х = Х;), надо просумми ровать вероятности столбца Х; . Аналогично сложив вероятности «ст роки У/» получим вероятность Р(У = у1). Пример. Найти законы распределения составляющих двумерной случайной велИ'!ИНЫ, заданной закон::>м распределения (табл . 3). Реш е н и е. Сложив вероятности по столбцам, получим вероят ности возможных значений Х:Р(х1) =О, 16; Р (х2) = 0,48; Р (х3) =0,35. Напишем закон распределения составляющей Х: ХХ1 р 0,16 Х2 Х3 0,48 0,36 157
Таблица 3 1 х у 1 1 х, х. х. Yi 1 0,10 1 0,30 1 0,20 У2 1 0,06 1 0,18 1 О,16 I< онтроль: о,16+0,4s+о.з6 =1. Сложив вероятности по строкам, получим вероятности возможных значений У: Р (у1) = 0,60; Р (у2) = 0,40. Напишем закон распределения составляющей У: УYi У2 р 0,60 0,40 I< онт роль: 0,60+0,40 = 1. § 3. Функция распределения двумерной случайной величины Рассмотрим двумерную случайную величину (Х, У) (безразлично, дискретную или непрерывную). Пусть х, у-пара действи- У тельных чисел. Вероятность событи я, состоящего в том, что Х примет значение, мень шее х, и при этом У примет значение, меньшее у, обоз ��>.;1- -- -- Х начим через F (х , у). Если х и у будут изменяться, то, вообще говоря. будет изме няться и F(х.у). т. е. F (х, у) есть функция от х иу. Рис. 13 Функцией распределения двумерной случайной вели чины (Х, У) называют функцию F (х. у), определяющую для каждой пары чисел х, у вероятность того, что Х примет значение, меньшее х, и при этом У примет зна чение, меньшее у: F(х,у)=Р(Х<х, У<у). Геометрически это равенство можно истолковать та к: F (х, у) есть вероятность того, что случайная точка (Х, У) 158
попадет в бесконечный квадрант с вершиной (х, у) , рас положенный левее и ниже этой вершины (рис. 13). Пример. Найти вероятность того, что в результате испытания составляющая Х двумерной случайной величины (Х, У) примет зна чение Х < 2 и при этом составляющая У примет значение У<3, если известна функция распределения системы F(х, у)=(�arctg ;+;)•(�arotg �+;). Р е ш е н и е. По определению функции распределения двумерной случайной величины, F(х,у)=Р(Х<х,У<у). Положив х = 2, у=3, получим искомую вероятность Р(Х<2, У<3)=F(2,3)=(�arctg;+;)Х Х(..!. .. arctg �+_!_)=(..!. . . �+..!. .. ).(..!. .. . �+..!. .. )=� .�=�. n 32 n4 2 n42 4416 §4 . Свойства функции распределе ния двумерной случа йной величины С в ойств о 1. Значения функции распределен ия удовлетворяют двойному неравенству O<F(х, у)< 1. Док а затель ств о . . Свойство вытекает из определе ния функции распределения как вероятности : вероят ность - всегда неотрицательное число, не превышающее единицу. С в ойств о 2. F (х, у) есть неубыва ющая функиия по каждо.му аргументу, т. е . F(х2, у)�F(х1, у), если х2 >х1; F(х,у2)�F(х,у1), если у2>УР Доказательство. Докажем, что F(x, у) - неубы вающая функция по аргументу х . Событие, состоящее в том, что составляющая Х примет значение, меньшее х 2 , и при этом составляющая У<у, можно подразделить на следующие два несовместных событи я: 1) Х примет значение, меньшее х 1 , и при этом У<у с вероятностью Р (Х < х1, У<у); 2) Х примет значение, удовлетво ряющее неравенству х1<Х<х2, и при этом У<усвероятностью Р(х1< <Х<Х2),У<у). .1 59
По теореме сложен ия, Р(Х<х2, У<у)=Р(Х<х1, У<у)+Р(х1�Х <х2, У<у). Отсюда Р(Х<х2, У<у)-Р(Х<х1, У<у)=Р(х1�Х<х2, У<у), или F(х2, y)-F(х1, у)=Р(х1�Х<х2, У<у). Любая вероятность есть число неотр ицательное, поэтому F(х2, y)-F(х1, у)�О, или F(х2, у)�F(х1, у), что и требовалось доказать. Свойство становится наглядно ясным, если восполь зоваться геометрическим истол кованием функции распре деления ка к вероятности попадания случа йной точ ки в бесконеч ный квадрант с вершиной (х; у) (рис. 13). При возрастании х правая граница этого квадранта сдвигается вп раво; при этом ве роятность попадания случа йной точки в «Новый» квадрант, очевидно, не может уменьшиться. Аналогично доказывается, что F (х , у) есть неубыва ющая фу нкция по аргументу у. С в ойств о 3. И.,неют .место предельные соотношения: 1) F(-oo,у)=О, 2) F(x, -оо) =О, 3) F(-oo, -оо)=О, 4) F(oo, оо)=1. Доказател ьство. 1) F(-oo, у) есть вероятность события Х < - оо и У < у; но такое событие невозможно (поскольку невозможно событие Х < - оо ) , следовательно, вероятность этого события равна нулю. Свойство становится наглядно ясным, если прибегнуть к геометрической интерпретации: при х - - оо правая граница бесконечного квадранта (рис. 13) неограниченно сдв игается влево и при этом вероятность попадания слу чай ной точ ки в квадрант стремится к нулю. 2)Событие У< - оо невозможно,.поэтому F (х, - оо )=О. 3) Событие Х <-оо и У<-оо невозможно, поэтому F(-oo,-оо)=О. 4) Событие Х < оо и У < оо достоверно, следовательно, вероятн Jсть этого события F(oo, оо ) = 1. Свойство становится наглядно ясным , если принять во внимание, что при х -+ оо и у -+ оо бес1юнечный квад рант (рис. 13) превращается во всю плоскость хОу и, следовател ьно, попадание сл учайной точки (Х ; У) в эту плоскость есть досто верное событие. 160
С в ойств о 4. а) При у = оо функция распределения системы становится фу нкцией распределения составляю щей Х: F(x, oo) = F1(x). б) При х = оо функция распределения системы ста но вится функц ией распределения составляющей У : F(оо,у)=F2(у). Доказательство. а) Так как событие У< оо досто верно, то F (х, оо ) определ яет вероятность события Х < х, т. е . представляет собой функцию рас пределения состав ляющей Х . б) Доказывается аналогично. § 5. Вероятность попадания СJ J учайной точки в полуполосу Испол ьз уя функцию расп ределения системы сл у чайных величин Х и У, легко найти вероятность того, что в результате испыта- r;i) , ния случайная точка попа- У дает в полуполосу х1 < Х < <Х2 и У<у (рис. 14,а) Или в полуполосу Х <х и У1<У<у2 (рис. 14, б). Вычитая из вероятности попадания случайной точки в квадрант с вершиной (х2; у) вероятность попада ния точки в квадрант с вер шиной (х1; у) (рис. 14 , а), по лучим р(Х1�Х<Х2, У<у)= = F(Х2, y)-F(Х1, у). Аналогично имеем Р(Х<х, У1�У<У2)= = F(х,y2)-F(х, у1). ____ х _ J�·;y) о б)у у,' --� о.. ._ ___,/( .___х Рис. 14 Таким образом, вероятность попадания случайной точки в полуполосу равна приращению функци и распре деления по одному из аргументов. 6-2 10 J61
§ 6. Вероятность попадан ия случайиой точки в прямоуго.пькик Рассмот рим прямоугольник ABCD со сторонами , параллельными координатным осям (рис. 15). Пусть урав нения сто рон та ковы : у >'2 - --�J� 1:Y2 ) у, -ё(;;; ;; - о Х1 Рис. 15 B(J12:Y2) D(J12:Y1 "2 Найдем вероятн ость по падания случа йной точки (Х; У) в этот прямоуголь ник. Искомую вероятность можно найти , например , так : из вероятности по падания случайной точ ки в полу полосу АВ с х вертикальной штриховкой (эта вероятность равна F (х2, y2)-F (xl' у2)) вы честь вероятность попада ния точки в лолуполосу CD с горизонтальной штриховкой (эта вероят ность равна F(х2, у1) - F (х1, у1)): Р(х1�Х<Х2• У1�У<У2) =[F(х2, Y2)-F(х1, Y2>J- - [F (Х2, Y1) -F(х1, У1)]. (*) Пример. Найти вероятность попадания случайной точки (Х; У) в прямоугольник, ограниченный прямыми х = л/6 , х = л/2, у=л/4, у=n/3, если известна функция распределения F(х, у)=sinхsinу(О..; ;; ; х.; ;; ;; ; n/2,О..; ;; ; у.; ;; ;; ; л/2). Решение. Положив х1 =n/6, х2 =n/2, у1 =n/4, у2 =n/3 в формуле (*) , получим i62 Р(n/6<Х<n/2, л/4<У<л/3)=[F(п/2, n/3) - F (n/6, л/3)]-[F (л/2, n/4) -F(л/6, л/4))= = (sin (л/2) sin (л/3) -sin (л/6) sin (л/З)]- [siп (n/2) sin (л/4) - - sin (n/6) sin (л/4)] =[ уЗ/2 - J!З/4] -[у2/2 - у2/4] = =( J!З- у2)/4 =0,О8 .
§ 7, Плотность совместноFо распределения вер.оятоостей непреры вной двумерной случа й.ной величи ны (двумерная плотность вероятности) Двумерная случайная величина задавалась с по- мощью функции распределения. Непрерывную двумерную величину можно также задать, пользуясь плотностью распределения. Здесь и далее будем предполагать, что функция распределения· F (х, у) всюду непрерывна и И!'fеет всюду (за исключением, быть может, конечного числа кривых) непрерывную частную производную второго порядка. Плотностью совместного распределения вероятностей f (х, у) двумерной непрерывной случайной величины (Х, У) называют вторую смешанную частную производную от функции распределения: f() - д2F(х, у) х,у -дх·ду • Геометр ически эту функцию можно истолковать как по верхность, которую называют поверхностью распределения. Пример. Найти плотность совместного распределения f (х, у) системы случайных величин (Х, У) по известной функции распреде ления F(х, у)=sinхsiпу(О<;х.; ;;:; ; n/2, О.; ;; ;; у.; ;;:; ; n/2). Реш е н и е. По определению плотности совместного распределения, д2F f(x, и>=ахау· Найдем частную производную по х от функции распределения: дF . дх =COS XSIЛ y. Найдем от полученного результата частную производную по у, в итоге получим искомую плотность совместного распределения: а2р f(x, у)=дхду =соsx.cosу(0<,х.; ;; ;; n/2, О<;у<;n/2). § 8. Нахождение функции распределе ния системы по известной плотности распределения Зная плотность совместного рас пределения f (х, у). можно найти функцию распределения F (х, у) по формуле ух F(x,у)=. S S f (х, y)dxdy, -oci -ао 163
что непосредственно следует из определения плотности распределения двумерной неп рерывной случайной вели чины (Х, У). Пример. Найти функцию распределения дв умерной случайной величины по данной плотности совместного распределения 1 f(х, У)=nz (1+xz)(1+у2) · Ре ш е н и е. Воспользуемся формулой Поло жив ух F(x,11)=� � f(x, y)dxd.y. -Ф -ао 1 f(х, у)=nt(1+х2)(I+yz) , получим у х F(x, у) =�25 00 (1�у25 00 1�x2)dy= g у =n1 S 1�11, (arotg x +�)dy=(�arctg x+i) � 5 l:yz = -со -со § 9. Вероятностный смысл двумерной плотности вероятности Вероятность попадания случайной точки (Х; У) в прямоугольник ABCD (рис. 16) равна (см. § 6) Р(Х1<Х <Х1, у1<У<У2)=[F(х1, Y2)-F(Х1, у1)]� -[F (x1, Y1) -F(x1, У1)]. Обозначив для краткости левую часть равенства через РАвсо и применив к правой части теорему Лагранжа , получим РАвсо = F;11 (;, Т)) ЛхЛу, где Х1 <;<Ха, Лх=Х11-Х1; !11 <Т) <У1• Лу=у1-У1· Оrсюда ) pABCD F'xg(�,Т) =АхЛу' 164
или f(f: ) рABCD "'' fJ=Лхду. Приняв во внимание, что произведение Лх Лу равно площади прямоугольника A BCD, заключаем: f (s, fJ) есть отношение вероятности попадания случайной точ- У АCD А(r,;у1+ду) В(х1+дх;у,+ду) ки в прямоугольник В у2 ______0 к площади этого прямо - ду угольника. · Перейдем теперь в ра- У, --c(-;,:-y-)i дк 1D(к1+дх; у,) венстве (**) к пределу при ' ': 1 Лх-+О и Лу-+О. Тогда -- 0 +- -- ----'"- , ____x .. .. .--- ;r s-+ х, У\-+у и, следова тельно, f(s,ri)-f(х, у). Рис. 16 Итак, функцию f (х, у) можно рассматривать как пре дел отношения вероятности попадания случайной точки в прямоугольник (со сторонами Лх и Лу) к площади этого пр�моугольника, когда обе стороны прямоугольника стре мятся к нулю. у • ду t о § 10. Вероятность попадания случайной точ ки в произвольную область Перепишем .соотношение (**) § 9 так: / i"'-. -дк f<s. ri)лхЛу=РлвсD· -. .. .. D - Рис. 17 � / Отсюда заключаем: про изведение f (s, ri) Лх Лу есть вероятность попада ния случайной точки в прямоугольник со сторо нами Лх и Лу. � зад�Jаст �;о�������:� х 2 ласть D. Обозначим собы- тие, состоящее в попада нии случайной точки в эту область, так : (Х, У) с: D. Разобьем область D на п элемента рных областей пря мыми, параллельными оси Оу , находящимися на расстоя нии Лх одна от другой, и прямыми, па раллельными оси Ох , находящимися на расстоянии Лу одна от другой (рис . 17) (для простоты предпола гается, что эти прямые пересекают конту р области не более чем в двух точках). Так как J65
события, состоящие в попадании случайной точки в эле ментарные области , несовместны, то вероятность попада ния в область D приближенно (сумма элемента рных об ласт,ей приближенно равна области D!) равна сумме вероятностей попаданий точки в элементарные области : п Р((Х, Y)cD)��f(�i• tJi)ЛхЛу. i=1 Переходя к пределу при Лх -+ О и Лу -+ О, получим Р((Х, Y)cD)=��f(х, у)dxdy. (*) (D) Итак, для того чтобы вычислить вероятност_ь попада ния случайной точки (Х; У) в область D, достаточно у найти двойной интеграл по области D от функции f (х, у). Геометрически равенство (*) можно истолковать так: вероятность попадания сл у чайной точки (Х; У) в область -0 -1---- м_j < ""' r; o � )== н""'c"" "" Y.f: ;:;: : ; :- oJ �x D равна объему тел а, огра Рис. 18 ниченного све рху поверхно стыо z= f (х, у), основанием которого служит проекция этой поверхности на плоскость х Оу . 3 а м е ч а н и е. Подынтегральное выражение f (х, у) dx dy назы вают элементом вероятности. Как следует из предыдущего, элемент вероятности определяет вероятность попадания случайной точки в эле ментарный прямоугольник со сторонами dx и dy. Пример. Плотность распределения двумерной случайной величины 1 f(х, у)=n2(1+х2)(1+у2). Найти вероятность попадания случайной точки в прямоугольник (рис. 18) с вершинами К(1; 1), L(JIЗ; 1),М(l;О)и N(JIЗ;О). 166 Реш е н и е. Искомая вероятность Р((Х, Y)cD)=S S n2(l+x�)(l+y2) dxdy= (D) 1Г УЗ 1 1-гЗ 1 = �2SJ1�у2 S 1�\21dy=�2 arctgх 1 S1�у2 = о'- 1 _J 1о 1 = �2(�-:)•arctgУ1=�2 • � •: =4�· о
§ 11. Свойства двумерной плотности вероятности Св о й с т в о 1. Двумерная плотность вероятно сти неотрицательна: f(х, у)�О. Док азательств о. Вероятность попадания случай ной точки в прямоугольник со сторонами Лх и Лу есть неотрицательное число; площадь этого прямоугольника - положительное число . Следовател ьно, отношение этих двух чисел, а значит, и их предел (при Лх__,.О и Лу-+О), 1юто рый равен f (х, у) (см . § 9), есть неотрицательное число, т. е. f(х, у)�О. Замети м, что свойство непосредственно следует из того, что F (х, у) - неубывающая функция своих аргументов (§ 4). С в ойств о 2. Дво йной несобственный интеграл с бес конечными пределами от двумерно й плотности равен. единице: � �f(х, у)dxdy=1. -оо -оо До к азат ел ь ст в о. Бесконечные пределы интегри рован ия указывают, что областью интегри рования служит вся_ плоскость хОу; поскольку событие, состоящее в том, что·· случайная точка попадет при испытании на плоскость хОу , достоверно, то вероятность этого события (она и определяется двойным несобственным интегралом от дву мерной плот ности) равна единице, т. е. "' "' ��f(х, у)dxdy=1. -� -ею Пример. Задана плотность совместного распределения непрерыв ной двумерной случайной величины (Х, У): f(х, у) = С cos х cos у в квадрате О -=; ;; х-=; ;; л/2. О�у,.; ;; ;; л/2; вне этого квадрата f (х, у) = О. Найти постоянный параметр С. Р е ш е н и е. Воспользуемся свойством 2, учитывая, что х и у изменяются от О до л/2: ф"' С ��cosхcosуdxdy=1. -Ф -(1:) 167
Оrсюд а С t/(пi2 cosхdx}2 cosуdy). В ыполнив интегрирование, получим искомое значение парамет раС=1. § 12. Отыскание плотностей вероятности составляющих двумерной случайной величин ы Пусть известна плотность совместного распреде лен ия вероятностей системы двух случайных величин. Найдем плотности распределен ия каждой из состав ляющих. Найдем сначала плотность распределения составляю щей Х. Обозн ачим через F1 (х) функцию распределения составляющей Х. По определению плотности распределе ния одн омерной случайной величины, f()-dF1(х) 1Х-dx• Приняв во внимание соотношения н айдем А 11 F(х, у)= S S f(х, у)dxdg -aD -ext F1(х)=F(х, оо) х" F1(x)= S Sf(x, y)dxdy. -ао -ао (см. § 8), (см. § 4), Продифференцировав обе части этого равенства по х, получим . " rxl = s f(х, y)dy, _.., или "" f1(х)= S f(х,- y)dy. _.., 168
Аналогично находится плотность распределения состав ляющей У : 1О fs(у)= S f(х, у)dx. -ао Итак, плотность распределения одной из составляю щих рШJна несобственному интегралу с бесконечными пре делами от плотности совместного расп ределения системы , п ричем переменная интегрирования соответствует другой СОСmШJЛЯЮЩей. Пример. Двумерная случайная величина (Х. У) задана плот ностью совместного распределения f(х >={ l/(6n) при х1/9+у1/4 < 1, 'у О при х1/9+у1/4 > 1. Найти плотности распределения составляющих Х и У. Р е. ш е ние . Найдем плотность распределения составл яющей Х по формуле (*): Итак, 2Vt- xa/t 2V1 -x•/9 f1(X)=б� s· dg=6: s dy=g� Jf9 -- -X - 1• -2У1-х•/9 О при при lxl<3, 1х\,;:. . 3. ·Ан�логично, используя формулу (**)• найдем плотность распре деления составляющей У: f2 (у) = { У4-y2/(2n) при 1у1 < 2, О при ly!;:. . 2. Рекомендуем читателю для контроля самостоятельно убедиться · в том, что найденные функции удовлет.воряюr соотношениям ао sft(у)dy=1. -ао § 13. Условные закон ы распределени я составляющих системы дискретных случайных величин Известно, что если события А и В зав исимы, то условная вероятность события В отл ичается от его безус ловной вероятности . В этом случае (см. гл . lll, § 2) рА (8) = р (АВ)/р (А). (*) 169
Аналогичное положение имеет место и дл я случа йных величин . Для того чтобы охарактеризовать зависимость между составляющими двумерной случайной величины, введем понятие условного распределения. Рассмотрим дискретную двумерную случайную вел и чину (Х , У) . Пусть возможные значения составляющих таковы:Х1,Х2, •••, Хп;у1,У2• ···, Ут· Допустим, что в результате испытан ия величина У приняла значение У=у1 ; при этом Х примет одно из своих возможных значений: х1, или х2 , •••, или хп . Обо значим условную вероятность того, что Х примет, на пример, значение х1 при условии , что У=у1 , через р (х1 1 у1) . Эга вероятность, вообще говоря, не будет равна безусловной вероятности р (х1). В общем случае условные вероятности составляющей будем обозначать та к: р(xi1Yi) (i=1,2, . .., п; j=1,2, ..., т). Усл овным распределением составляющей Х при У=у1 называют совокупность условных вероятностей р (х1 / у1), Р (x2 I у1), . •., р (хп 1 у1), вычисленных в предп о.'!ожении, что событие У=у1 (j имеет одно и то же значение при всех значениях Х) уже насту пило. Аналогично опреде ляется условное распределение составл яющей У. Зная закон распределения двумерной дискретной слу чайной величины, мож�о, пользуясь формулой (*), вь1- числить условные законы распределения составляющих. Например, условный закон распределен ия Х в предпо ложении, что событие У = у1 уже произошло, может быть найден по формуле р(Х·\у1)=Р(х;,Yi) (i=1,2, ..., п). l р (У1) В общем случае условные законы распределения со ставл яющей Х определ яются соотношением Аналогично нах одят условные законы распределения составляющей У: 3 а м е ч а н и е. Сумма вероятностей условного распределения равна единице. Действительно, так как при фиксированном у1 имеем 170
п � (см. §2) �р(xi, у1)=р(У1), то l=1 п п �Р(Xi1Yj)=� Р(х;, Yj)/p(У1)=Р(У;)/р(У1)=1. i=1 i=1 Аналогично доказывается, что при фиксированном х; т �р(YJ1х;)=1. /=1 Эrо свойство условных распределений используют для контроля вы числений. Пример. Дискретная двумерная случайная величина задана табл. 4. Таблица 4 х у 11 х, х. "• У1 о, 10 0,30 0,20 У2 0,06 О,18 0, 16 Найти условный закон распределения составляющей Х при ус ловии, что составляющая У приняла значение у1• Р е ш е н и е. Искомый закон определяется совокупностью сле дующих условных вероятностей: Р(х1/У1), Р(x2IУ1), Р(хз1У1)· Воспользовавшись формулой (*) и приняв во внимание, что р (у1) = 0,60 (см. § 2, пример), имеем: Р (х1 IY1) =p(х1. У1)/р <и1) = 0,10/0,60 = 1/6; Р(хз 1YlJ=Р(х2, У1)/р<и1)=0,30/0,60=1/2; Р (хз 1 У1) =р (хз, У1)/р (у1) =0,20/0;60 = 1/3. Сложив для контроля найденные условные вероятности, убедим ся , что их сумма равна единице, как и дол жно быть, в соответствии с замечанием, помещенным выше: 1/б+1/2+ l/3= 1. § 14. Условные законы распределения соста ВJiяющих системы непрерывных случайных величин Пусть (Х, У)-непрерывная двумерная случай ная величина. Услоеной плотн ост ью <р (х 1 у) распределения состав ляющих Х при данном значен и и У=у называют отно- 171
шение плотности совместного распределения f (х, у ) си стемы (Х , У) к плотности распредел ения f 2 (у) состав ляющей У: <р(х1у)=f(х, Y)lf2(у). (*) Подче ркнем, что отличие условной плотности <р (х 1 у) от безусловной плотности f 1 (х) состо ит в том, что функ ция <р (х 1 у) дает распределение Х при услови и, что со ставляющая У приняла значение У=у; функция же f1 (х) дает распредел ение Х независимо от того, какие из возможных значений пр иняла составляющая У. Аналогично определяется условная плотность состав ляющей У при данном значении Х = х : 'Ф(у1х)=f(х, Y)lf1(х). (**) Если известна плотность совместного распределения f (х , у), то условные плотности составляющих могут быть найдены в силу (*) и (**) (см. § 12) по формулам: 00 <р(х1у)=f(х, и>/sf(х, у)dx, 00 'Ф(ylx)=f(x, и>/sf(x, y)dy. -оо Запишем формулы (*) и (**) в виде f(х, У)=f2(у)<р(х1у), f(х, у)=f1(х)'Ф(у1х). Отсюда заключаем : умножая закон распределения одн ой из составл яющи х на условный закон распредел е ния другой соста вляющей , найдем закон распределения системы случайных вел ичин. Как и любая плотность распределен ия, условные плотности обл адают следующими свойствами : <р(х/у)�О, 'Ф(У1х)�О, "" 5<р(x/y)dx= 1; -оо со ,. . jф(у/х)dy=1 . -со Пример. Двумерная случайная вели чина (Х, У) задана плот ностью совместного распреде.ления 172 {l/(nr2) при х2+у2 < r2, f(х 11)- , - О при х2+у2 > r2 •
Найти условные законы распределения вероятностей JIЯЮЩИХ. Р е ш е н и е. Найдем условную плотность составляющей / х1 < Jfr2 -y1 по формуле (***): <р(х1у) l/(nr2) Vr•- y• nr' sdx --Vr•-y• состав- Х при Так как f(х, у)=О при х2+у2 > r2, то q>(x/y)=O при Jxl> > у-,2_у2. Пользуясь формулой (****), аналогично найдем условную плот ность составляющей У: r 1/(2 уг2-х2) при IYI< y,a_xz, 'Ф(У /х) =\ 0 при/yl>у, 2 _х 2. § 15. У словное математическое ожидание Важной характеристикой условного расnределе ния вероятностей является условное математическое ожи да ние. Условным математически м ожиданием дискретной случайной величины У при Х = х (х -оп ределенное воз можное значение Х) называют произведение возможных значен ий У на их условные вероятности : т М(У/Х=Х)=�У1Р(У1/х). 1=1 Для непрерывных вел ичин " М(У1Х=х)= Sуф(у1х)dy, _.., где ф (у / х)-условная плотность случайной величины У при Х=х . Условное математическое ожидание М (У 1 х) есть функ- ЦИЯ ОТ х: М(У1х)=f(х), кото рую навывают функцией регресси и У на Х. Аналогично оп редел яются условное математическое ожида ние сJ1 учайной величины Х и функц ия регресси и Хна У: М(Х1у)=q.i(у). 1'73
Пример. Дискретная двумерная слуца.йная вели·чина задана табл. 5. Табл ица 5 1 х у 1 1 1 х1 =1 х,= З х. =4 х4= 8 Yi=3 0,15 0,06 0 ,25 0,04 U2=6 0,30 0,10 0,03 0,07 Найти условное математическое ожидание составляющей У при X=x1 =l. Решение. Найдем р (х1) . для чего сложим вер.оятности , по· мещенные в первом столбце табл. 5: р (х1) = 0,15+0,30 =О,45. Найдем условное распределение вероятностей величины У при Х=х1=1 (см. § 13): Р (У1 J Х1) =р (Xi, У1)/р (Х1) =0,15/0,45 = 1/3; Р (Y2 I х1) =Р (х2, U2)/p (х1) =0,30/0,45= 2/3. Найдем искомое условное математическое ожидание по фор муле (*): 2 м(У1Х=Х1) =}�UjP(Uj1Х1)=У1Р<и11X1)+Y2P(Y2IХ1)= 7=1 = 3 ( 1/3)+6 (2/3)=5. § 16. Зависимые и независимые случайные величины Мы назвали две случайные вел ичины независи мыми, если закон распределения одной из них не зави сит от того, какие возможные значения приняла другая величина. Из этого определения следует, что условные распределения независимых вел ичин равны их безуслов ным распределениям. Выведем необходимые и достаточные условия незави симости случайных вел ичин. Теорема. Дл я того чтобы случайные вел ичины Х и У были независимыми, необх одимо и достаточно , чтобы функция распределен ия системы (Х, У) была равна про изведен ию функций распределен ия составляющих: F(х, у)=F1(х)F2(у). Док азательств о. а) Необх од имо сть. Пусть Х и У независимы. Тогда события Х < х и У<у неза- 174
висимы, следовательно, вероят·RОС'F ь совмещения этих событий равна произведению их 13ероятностей: Р(·Х<х, У<У)=Р(Х<х)Р(У<у), или F(х, у)=F1(х)F2(у). б) Достаточность. Пусть F(x, y) =F1 (x) F2 (y). Отсюда Р(Х<х, У<у)=Р(Х<х)Р(У<у), т. е. вероятность совмещения собьrrий Х < х и У < у равна произведению· вероятностей этих событий. Следова тельно, случайные .иеличины Х и У неэавнсимы. С л едств и е . Для того чт обы непрерывные случайные вел ичины Х и У был и независимыми , необходимо и доста точно, чтобы плотность совместного распределения си стемы (Х, У) была равнл п р оизведени ю плотностей рас пределения составляющих: f(х, у)=f1(х)f2(у). Доказател ьство. а) Необходимость. Пусть Х и У -иезависимые неп рерывные случайные величины. Тогда (на основании предыдущ�й теоремы) F(х, у)=F1(х)F2(у). Дифференцируя это равенство по х, затем по у , имеем д2F дF1 дF2 дхду=дх ду ' или (по определ ению плотностей распределения двумер ной и од номерной величин) f(х, у)=fi(x>f2(у). б) Достаточность. Пусть f(х, у)=f1(x)f2(у). Интегрируя это равенство по х и по у, получим ух х у SSf(х, у)dxdy= Sf1(х)dx Sf2(у)dy, -оо -оо или(см.§8гл.XIVи§3гл.Xl) F(x, y) =F1(x) F 2(y). 175
Отсюда (на основании предыдущей теоремы) заклю чаем, что Х и У независимы. 3амечание. Так как приведенные вwше усло11 1 ия являются необходимыми и достаточными, то можно дать новые определения независимых случайных величин: · 1) две случайные величины называют независимыми, если функ ция распределения системы этих величин равна произведению функ ций распределения составляющих; 2) две непрерывные случайные величины называют независимы ми , если плотность совместного распределения системы этих величин равна произведению плотностей распределениJ1 составляющих. Пример. Двумерная непрерывная случайная величина (Х, У) задана плотностью совместноrо распределениJ1 f(х, y)=(.sin х sinу)/4 в квадрате О ..; ;; ; х<;п, О..; ;; ; у.s; ;; ; п; вне квадрата f (х, у) -0. Доказать , что составляющие Х и У независимы. Решение. Используя формулы (*) и (**) § 12, легко найдем плотности распределения составляющих: f1 (х) = sin х/2, f2 (у) =sin у/2. Плотность совместного распределения рассматриваемоА системы рав на произведению плотностей распределения составляющих, поэтому Х и У независимы. Разумеется, можно было доказать, что условные законы распре деления составляющих .равны их беаусJ1овным законам, откуда также следует независимость Х и У. § t 7. Числовые характеристики системы двух случайных вели чин. l(орреляционныА момент. l(озффициент корреляции Для описания системы двух сл учайных величин кроме математичес ких ожида ний и дисперсий составляю щих используют и другие характеристики; к их числу относятся корреляционный момент и коэффициент корре ляции. J(орреляционным моментом μxJI случайных вел ичин Х и У называют математическое ожидание произведения отклонений этих величин: μху =М{fX-M{X)][Y-M(У)]}. Для вычисления коррел яционного момента диск рет ных величин используют формулу пт f.Lxy= -� - �[х;-М(Х)][у1-М(У)]Р(xi, у1), t=1Jz=1 а для неп рерывных вел ичин -формулу 176 """" f.txJI = S 5[х-М(Х)][у-М(У)]!(х, y)dxdy. -оо -ао
Корреляционный момент служит для характеристики связи между величинами Х и У. Как будет показано ниже, корреляционный момент равен нулю, если Х и У независимы; следовательно, если корреляционный момент не равен нулю, то Х и У-зависимые случайные вели чины . 3 а меча ние l. Учитывая, что отклонения есть центрирован ные случайные вел ичины (см. гл . VIII , § 2) , к орреляционный момент можно определить как математическое ожидание произведения uеИ'Г рированных случайных вели чин: μxv= м /XYJ. 3 а меча·н и е 2. Легко убедиться, что корреляционный момент можно записать в виде �txy=М(ХУ)-М(Х)М(У). Теорема 1. Коррел яционный момент двух независимых случайных величин Х и У равен нулю. Доказател ьство. Так как Х и У - независи мые случайные величины, то их отклонения Х -М (Х) и У-М (У) также независимы . Пользуясь свойствами ма тематического ожидания (математическое ожидание про изведения независимых ..;лучайных в"личин равно произ ведению математических ожиданий сомножителей) и отклонения (математическое ожидание от клонения равно нулю), получим μxv = М{[Х-М(Х)][У-М(У)]}= =М[Х-М (Х)]М[У-М (У)]=О. Из оп ределения корреляционного момента следует , что он имеет размерность, равную произведению размер ностей вел ичин Х и У. Другими словами, вел ичина корреляционного момента зависит от еди ниц измерени я случайных величин . По этой причине для одн их и тех же двух вел ичин вел ичина кор реляцион ного момента имеет различные значения в зависимости от того, в каких еди ницах были измерены величины. Пусть, например, Х и У были измерены в сантимет рах и μх = 2 см2; если измерить Х и У в миллиметрах, то μху = �00 мм . Такая особенность корреляционного мо мента является недоста тком этой числовой характеристи ки, поскольку сравнение коррел яционных моментов различных систем случайных вел ичин становится зат руд нител ьным. Для того чтобы устранить этот недостаток , вводят новую числовую характеристику- коэффициент коррел яци и. 177
!(оэффи циентом корреляц ии rху случайных величин Х и У называют отношение корреляционного момента к произведен ию средн их квадратических отклон-ений этих величин: Так как размерность μху равна произведен ию размер ностей величин Х и У, ах имеет размерность величины Х, ау имеет размерность величины У (см. гл . VI II, § 7) , то rху - без размерная величина . Таким образом, величина коэффициента корреляци и не зависит от выбора ед иниц измерения случайных величин . В этом состоит преиму щество коэффициента корреляции перед корреляционным моментом. Очевидно, коэффициент корреляции независимых слу чайных величин равен нулю (так как μху =О) . 3 а меч ани е 3. Во многих вопросах теории вероятностей це лесообразно вместо случайной величины Х рассматривать нсрмиро ванную случайную величину Х', которую определяют как отношение отклонения к среднему квадратическому_отклонению: Х'=(Х-М (Х))/ах. Нормированная величина имеет математическое ожидание, равное нулю, и дисперсию, равную единице. Действительно, используя свойства математического ожидания и дисперсии, имеем: М(Х') =М [Х- М , (Х)]=_!_М[Х-М(X)J=�·0=0; ах ах ах D(X') =D [X-M (X)]=-\D[X-M(X)]= D (�) =l. ах ах ах Легко убедиться, что коэффициент корреляции rху равен корре ляционному М()Менту нормированных величин Х' и У ': Гху= M{[X-M (X)][Y -M (Y)J} =М [Х-М (Х) Х-М(У)]= Ох Оу Ох Оу = М (Х'У')=μХ'У' · Теорема 2 . Абсолютная вел ичина корреляционного мо мента двух случайных вел ичин Х и У не превышает сред него геометрического их дисперсий: 1μху 1�VDxDy• Док азательств о. Введем в рассмотрение сл учай ную величину Z1 =cr Х - ахУ и найдем ее дисперсию D(Z1) = М [Z1 - тz .]2• 113ыполнив выкладки, получим D {Z1) = 2а;а� -20'хауμху • 178
Любая дисперсия неотрицательна, поэтому 2o;oz-2ахО'уμху � о. Отсюда μxy < (Jx(Jy• (**) Введя случайную вел ичину Z2 = cryX + crx Y, аналогич но найдем μX!J � -(JX(Jy • Объединим (**) и <-***): -<JxOy<μху<ОхОу, или Итак, J.1xy<VDxDy. Теорема 3. Абсолютная величина коэффициента кор реляции не превышает единицы: lrxul< 1. Док а з а тель ство: Разделим обе части двойного неравенства (****) на произведение положительных чисел O'x<Jy: Итак, lrxy!<l . § 18. Коррелированность и зависимость СJ J учай ных величин Две случайные величины Х и У называют кор релированными, есл и их корреляционный момент (или, что то же., коэффициент коррел яции) отл ичен от нуля; Х и У называют некоррелированными величинами , если их корреляционный момент равен нулю. Две коррелированные величины также и зависимы. ДействителЫiо, допустив противное, мы должны заклю чить, что μху = О, а это противоречит условию, так как для коррелированных величин μху =#= О . Обратное предположение не всегда имеет место , т. е . есл и две величины зависимы, то они могут быть как коррелированными, та к и некоррелированными. Дрvrими 179
словами, корреляционный момент двух зависимых вел и чин может быть не равен нулю, но может и равняться нулю. Убедимся на примере, что две зависимые величины могут быть некоррелированными . Пример. Двумерная случай ная величина (Х, У) задана плот ностью распределения: .f(x, у) =l/6л внутри эллипса х2/9 +у2/4 =1; f (х, у) =0 вне этого эллипса. Доказать, что Х и. У - зависимые некоррелированные величины. Реш е н и е. Воспользуемся ранее вычисленными плотностями распредt>ления составл яющих Х и У (см. § 12): f1 (x) = g� V9-x2, /2 (у) =2� У 4 у2 внутри заданного эл лип- са и f1 (х)=О, f2 (у)=О вне его. Так как f(х, у) :;6f1(х)f2(у), то Х и У-зависимые величины (см. § 16). Для того чтобы доказать некоррелированность Х и У, доста точно убедиться в том, что J.Lxy = O. Найдем корреляционный момент по формуле (см . § 17) 0000 μху= � � [x-M(X))[y-M(Y)Jf(x, y)dx dy. -оо -QO Поскольку функция f1 (х) симметрична относительно оси Оу, то М (Х) =0; аналогично, М (У) =0 в силу симметрии f. (у) относи тельно оси Ох. Следоваrельно, "' 00 μху= S � xyf(х, у)dxdy. -ею -с;ю Вынося постоянный множитель f (х, у) за знак интеграла, получим Внутренний · интеграл равен нулю (подынтегральная функция нечЕ>тна, пределы интегрирования симметричны относительно начала коорди нат), следовательно, J.Lxu =O, т . е . зависимые случайные величины Х и У некоррелированы. Итак, из ко ррелиров� нности двух сл учайных вел и чин· следует их зависимость, но из зависимости еще не вы текает коррелированность. Из независимости двух вел и ч ин следует их некоррелированность, но из некоррели рованности еще нельзя заключить о независимости этих веJI ИЧИН. t80
Заметим, однако, что из некоррелированности нор мально распределенных величин вытекает их независи мость . Это утверждение будет доказано в следующем параграфе . § 19. Нормальный закон распределения на плоскости На практике часто встречаются двумерные сл у чайные величины, распределение которых нормально. Нормальным законом распределения на плоскости на зывают распределение вероятностей двумерной случайной величины (Х, У), если хе 1 f(х, у)= zх 2naxay V 1 -rxy -- - +-- - -2r---- 1 [(х-а1)2 (у-а2)2 х-а, у-о•] 2 (1-r�y) о; oz хуох o!I (*) Мы видим, что нормальный закон на плоскости опре деляется пятью параметрами : а1 , а 2 , ах, ау и rху· Можно доказать, что эти пара метры имеют следующи й вероят ностный смысл : а1 , а2 - математические ожидани я , ах, ау - средние квадратические отклонения, r ху - коэффици ент корреляции вел ичин Х и У . Убедимся в том, что если составляющие двумерной нормально распределенной случайной величины некорре лированны, то они и независимы. Действительно, пусть Х и У некоррелированиы. Тогда , полагая в формуле ( *) rху = О , пол учим f(х,у)= 1 · e-o.r; [(х - a,)•jo;+(y -a,)•joz] = 2naxay -- - · е -(х- а,>2/( 20;) . l e-(y-az>•/(2oz) =f (x) f ( ). -0x Jl'2n u11 Y2n 1 2У Таким образом, если соста вляющие нормально рас пределенной случайной величины некоррелированны, то плотность совместного Р. аспределен ия системы равна произведению плотностей распределения составляющих, а отсюда и следует независимость составляющих (см. § 1 6). Справедливо и обратное утверждение (см. § 18). Ита к, для нормально распредел енных составляющих двумерной случа йной величины понятия независимости и некоррелированности равносил ьны. 181
3 а мечани е. Используя формулы (*) и (**) § 12, можно до казать, что если двуме рная случайная величина распределена нор мально с параметрами а1, а 2 , О;р Оу, r ху• то ее составляющие также распределены нормально с параметрами, соответственно равными а1 , Охиа2,Оу· § 20. Линейная регрессия. Прямые линии среднеквадратической регрессии Рассмотрим ·двумерную случа йную величину (Х, У), где Х и У -за висимые случайные величины. Пред ста вим одну из величин как функцию другой. Ограни чимся пр11ближенным предста влением (точное приближе ние, вообще говоря, невозможно) величины У в виде линейнойфункциивеличиныХ: У�g(x)=aX+Р. где а и Р-параметры, подл ежащие опреде.11ению. Это можно сделать различными способами : наиболее употре бител ьный из них -метод наименьших квадратов. Функцию g(X) = аХ +Р называют «наилучшим при ближением» У в смысле метода наименьших квадратов, если математическое ожидание М [У -g (Х)]2 принимает наименьшее возможное значен ие; функцию g (х) называют средн еквадратической регресси ей У на Х . Теорема. Линейная средняя ква дратическая регрессия У на Х имеет вид Оу g(Х)=ту+rа(Х-тх), х где тх=М(Х), ту=М(У), crx=VD(Х), cry=VD(У), r = μху/(ахау) - коэф{рициент корреляции величин Х и У. Док а затель ств о. Введем в рассмотрение функцию двух независимых аргументов а и р: F(а, Р)=М[У-a-PXJ�. (*) Учитывая, что М(Х-тх)=М(У-ту)= О, М[(Х-тх)Х Х (У - ту)] = μху = Г<1х<1у, и выполнив выкладки, пол.учим F(а, Р)=crz+p2cri-2raxay�+(ту-а -Ртх)2• Исследуем функцию F (а, р) на экстремум, дл я чего приравняем нулю частные производные: 182 {дF R 0 Jда = -2(ту-а-t'тх) = , l��= 2pcr;-2raxay = О.
Отсюда Легко убедиться, что при этих значениях а и Р рассмат риваемая функция принимает наименьшее значение. Итак, линейная средн яя квадратическая регрессия У и Х имеет вид или Оу Оу g(X)=а.+�Х=тУ-r - 0 тх+rа-Х, х х о Коэффициент р = r _! !_ называют коэффициентом ре- ох грессии У на Х, а прямую Оу у-т у = r-(х-тх) ( **) Ох Rазывают прямой среднеквадратическ о й регрессии У на Х. Подста вив найденные значения а и р в соотношение ( * ), пол учим минимальное значение функции F (а, �). равное oz ( l -r2). Величину oz ( l -r2) называют остаточной дис п ерсией сл уч айной вел ичины У относ ител ьно случайной величины Х; она характеризует вел ичину ошибки , кото рую допускают при замене У линейной функцией g (Х)= = а. + рх . При r = +1 остаточная дисперсия равна нулю; другими словами , при этих крайних значениях коэффи циента корреляци и не возникает ошибки при представ .'l ении У в виде линейной функции от Х . Итак, если коэффициент корреляции r = ± 1, то У и Х связаны линейной функциональной зависимостью . Аналогично можно получить прямую среднеквадрати ческой регрессии Х на У : о х-тх = r_lf._(У-тУ") ( ***) Оу (r �= - коэффициент регрессии Х на У) и остаточную дисперсию о� ( l -r2) величины Х относительно У. Если r = ± 1, то обе прямые регрессии, как видно из ( **) и (***), совпадают . Из уравнени й (**) и ( ***) следует, что обе прямые регрессии проходят через точку (тх ; ту), которую назы вают центром совместного распределения велич ин Х и У. 183
§ 21. Линейная корреляция. Нормальная· коррел яция Рассмотрим двумерную случайную вел ичину (Х, У). Если обе функции регрессии У на Х и Х на У линейны (см. § 15), то говорят, что Х и У связаны ли нейной корреляционной зависимостью. Очевидно, что гра фюш линейных функций регресс ии - прямые линии, причем можно доказать, чт о они совпадают с прямыми средне· квадратической регрессии (см. § 20). Имеет место следу ющая важная теорема. Теорема . Если двумерная случайная величина (Х, У) распределена н ормально , то Х и У связаны линейной корреляц ионной зависимостыо . Док азател ь ств о. Двумерная плотность верQят ности (см . § 19) где f (х, у)= '> 1 2 e-<иz+v• -2ruv)/(2 (1-r•)), (*) �лахоу YI-г U=(X-a1)/ax, и = (у-а2)/а". (**) Плотность вероятности составляющей Х (см. § 19, замечание) f() 1 е-и•/2 1х= ,r · Охf2л (***) Найдем функцию регрессии М (У 1 х), дл я чего сначала найдем условный закон расп ределен и я величины У при Х =Х lсм. § 14, формула (**)]: ф(у1х)=f(х,у). f1 (х) Подставив (*) и ( **) в правую часть этой формулы и выполнив выкладки, имеем ф(у1х) = 1 e-<v-ru)1/(2 <1-r•н . yz:п:av . . Замен ив и и и по формулам (**), окончательно получим 184. 1 ф(у/х) = (o�Yl-r 2 )Y2n е
Полученное условное расп ределение нормально с ма тематическим ожиданием (функцией регрессии У на Х) а М(У\х)=а1+г_! !_ (х -а1) f1x и дисперсией о; (l -r2 ). Аналогично можно получить функцию регрессии Х на У: М(ХIY)=a1+г ох (у-а11)· ау Так как обе функции регрессии линейны, то корре ляция _между вел ичинами Х и У линейная, что и требо валось доказать. Принимая во внимание вероятностный смысл пара метров двумерного нормального расп ределен ия (см. § 19), заключаем , что уравнения прямых рег рессии ау ( · ах у-а1 = Г- х -а1), x-a1 = r-(y-a1) ах Оу совпадают с уравнениями прямых среднеквадратической регрессии (см. § 20). Задачи 1. Найти законы распределения составл11ющих J{искретной .-.вуме рной случайной величины, заданной законом распределения 11х1 у 1 1 х, х. Ха У1 0,12 0,18 0.10 Уа O,IO 0, 11 0,39 Om8. Х Х1 Xz Ха УYt Уа р 0,22 0,29 0 ,49 р 0,40 0,60 2. Найти вероятность того, что составляющая Х двумерной слу чайной величины примет значение Х < 1/2 и при этом составляю щая У примет значение У < 1/3, если известна функция распреде ления с·истемы F(x, у)= (�arctg 2х+ �)(�arctg3u+�). Oms. Р(Х < 1/2, У < 1/3)=9/16. 3. Найти вероятность попадания случайной точки (Х; У) в цря моуrольник, ограниченный прямыми х =n/4, х =·n/2, g = n/6, g = п./3, 185
если известна функция распределения F(x, y)=sinхsinу(OE; ;; ; xE; ;; ; n/2, ОЕ; ;; ; уЕ; ;; ; л/2). Отв. Р (n/4 < Х < n/2, л/6 < У<л/3)=0,11. 4. Найти плотность распределения системы двух случайных ве личин по известной функции распределения F(х, у)=(1-е-2Х)(1-е - ЗУ) (х:,;:; ;:. О, у:,;:; ;:. О). а2р Отв. f (х, у)=а х ау=6е - <2Х+зи> . 5. Внутри прямоугольника , ограничен ного прямыми х=О, X = n/2, у=О, y=n/2, плотность распределения системы двух слу чайных величин f (х, у) =С sin (х +у); вне прямоугольника f (х, у) =О. Найти: а) величину С; б) функцию распределения системы. Отв. а) С=О,5; б) F(x, y) =0,5 [sin x +sin y- sin (x+y)] (OE; ;; ; xE; ;; ; n/2, OE; ;; ; yE; ;; ; n/2). 6. Система двух случайных величин расп ределена равномерно: в прямоугольнике, ограниченном прямыми х=4, х =6, у= 10, у=15, функция f (х, у) сохраняет постоянное значение, а вне этого прямо угольника она равна нулю. Найти: а) плотность f (х, у) совместного распределения; б) функцию распределения системы . _ {0, 1 внутри прямоугольника, Отв. а) f (х, У) - О вне прямоугольни ка; б) F( )- (х-4)(у-10) х,у- 10 • 7. Плотность совместного распределения системы двух сJ1учайных величин f (х, у) (4+x2)�g+y2) . Найти: а) величину С; б) функ цию распределения системы. Отв.а)C=6/n2;б)F(х, у)=(�arctg �+;)(�arctg �+;.) . 8. Двумерная с.'!учайная величина задана плотностью совмест ного распределения f(х, у)= 3У3 е-4х2-вху-9у2• n Найти условные законы распределения составляющих. ( з). 2 - 2х+2У Отв. ер(х1у)=fn е
Ч АСТЬ ТРЕТЬЯ ЭЛЕМЕНТЫ МАТЕМАТИ ЧЕСl(ОЙ СТАТИСТИК И Глава пятнадцатая ВЫБОРОЧН Ы Й МЕТОД § 1. Задачи математической статистики Установление закономер ностей , котор ым подчи нены массовые случайные я вления, основано на изучении методами теор ии ве ро ятностей статистических данных -- -: результатов наблюдений. Пер вая задача математической статистики - указать способы сбор а и г р уппировки <.;. . Татистических сведений, полученных в результате наблюдений или в результате специально поставленных экспер иментов . Втор ая задача математической статистики --:- - р азрабо тать методы анализа статистических данных в зависи мости от целей исследования . Сюда относятс я: а ) оценка неизвестной ве роя тности события ; оценка неизвестной функции р асп ределения ; оценка па раметр ов расп ределен ия, вид которо го известен; оценка зависи мости случайной величины от одной или нескольких случайных величин и др .; б) проверка статистических гипотез о виде неизвест ного расп ределения или о величине параметров распре деления , вид которого известен . Современная математическая статистика разрабатывает способы опр еделени я числа необходимых испытаний до начала исследования ( планир ование эксперимента) , в ходе исследования (последовател ьный анализ) и решает многие др угие задачи. Сов ременную математическую статистику определяют как науку о п ринятии решений в условиях неопр еделенности . Итак, задача математической статистики состоит в со здании методов сбор а и обр аботки статистических данных для получения научных и п рактических выводов. 187
§ 2. Кратка я историчес кая справка Математическая ста тистика возникла (XVII в.) и разви валась па раллельно с тео рией вероятностей. Даль нейшее развитие математичес кой статисти ки (вторая по ловина ХIХ- начало ХХ в.) об язано, в первую очередь , П. · Л. Чебышеву, А. А. Маркову, А. М. Ляпунову, а также К. Гауссу, А. Кетле, Ф. Гальтону, К. Пирсону и др. В ХХ в. на иболее существенный вклад в математи ческую статистику был сдел ан советскими математи ками (В. И . Романовск ий, Е. Е . Слуцкий, А. Н. Колмогоров, Н. В . Смирнов), а также английскими (Стьюдент, Р. Фи ше р, Э. Пирсон) и американскими (Ю. Нейман, А. Вальд) учеными . § 3. ГенерЗJ J ьная и выборочная совокупности Пусть требуется изучить совокупность однород ных объектов относительно некоторого к а честве н и ого или количестве н н·о го призиа ка, характе ризующего эти объекты . Например, если имеется па ртия деталей , то качественным признаком может служить станда ртность детал и, а количественным - контролируе мый размер детали. Иногда проводят сплошное обследо вание" т. е. обсле дуют к а ж д ы й из объектов совокупности относительно пр изнака, которым интересуются . На практике, однако, сплошное обследо вание применяют сравнител ьно редко. Например, если совоку пность содержит очень большое число объектов, то провести сплошное обследование фи зически невозможно. Есл и обследов ание объекта связано с его ун ичтожением или требует больших материальных затрат, то проводить сплошное обследова ние практически не имеет смысла . В та ких случаях сл учайно отбирают из всей совокупности ограниченное число объектов и подвергают их изу чению. Выборочной совокупност ью или просто выборкой назы в ают совокупность случайно отобранных объектов. Генеральной совокупностью называют совокупность объектов, из которых производится выборка . Объе мом совокупности (выборочной или генеральной) называют число объектов этой . совокупности . Например , если из 1000 деталей отобрано для обс.ледования 100 де- 188
талей, то объем генеральной совокупности N = 1000, а объем выборки п = 100. 3 а мечани е . Часто генеральная совокупность содержит ко нечное число объектов . Од нако если это число достаточно вел ико, то иногда в целях упрощения вычислений , или дЛЯ облегчения теоре тических выводоа, доп ускают, что rенеральная совокупность состоит из бесчисленного множества объектов. Такое допущение оправды вается тем, что увеличение объема генеральной совокупности (доста точно большого объема) практически не сказываетс я на результатах обработки данных вьrборки. § 4 . Повторная и бесповторная выборки. Репрезентат и вная выборка При аоста влении выборки можно поступать двумя способами : после того как объект отоб ран и над ним произведе но н аблюдение, он может быть возвращен либо не возвращен в ген е ральную совокупность. В соответствии со сказанным выборки подразделяют на повторные и бес повторные. Повторной н азывают выборку , при которой отоб ран ный объект (пе ред отбором следующего) возвращается в генеральную совокуп ность. Бесповторной называют выборку, при кот орой отоб ран ный объект в г�неральную совокупность не возвращается . На практике обычно полБЗуются бес повторным слу ча йным отбором. Для того чтобы по данным выборки можно было до статочно уве ренно судить об интересующем признаке генеральной совокупности, необходимо, чтобы объекты выборки правильно его предс·rавляли . Другими словам11 , выборка должна правильно предста влять пропорции гене ральной совокупности . Эrо требование коротко формули руют так : выборка должна быть репрезентативной (пред ставительной). В силу закона больших чисел можно утверждать, что выборка будет ре п резентативной , если ее осуществить случайно: каждый объект выборки отоб ран случайно из генеральной совокуп ности , если все объекты имеют оди наковую вероятность попасть в выборку. Если объем генеральной совоку пности достаточно ве лик, а выборка составляет лишь незначительную часть этой совокупности , то различие между повторной и бес повторной выборками стираетсЯ ; в предельном случае, 189
когда рассматривается бесконечная генеральная совокуп ность, а выборка имеет конечный объем, это различие исчезает. § 5. Способы отбора На практике примен яются р азличные способы отбор а. Принципиально эти способы можно подразделить на два вида : 1. Отбор, не требующий расчленения генеральной со вокупности на части. Сюда относятся: а) простой слу чайный бесповторный отбор; б) простой случайный по вторный от бор . 2 . Отбор, при котором генеральная. совоку пность раз бивается на части . Сюда относятся : а) типический отбор ; б) механический отбор; в) серийный отбор. Простым случайным называют такой отб ор , при ко тором объекты извлекают по одному из всей· генераль ной совокупности. Осуществить простой отбор можно различными способами . Например, для извлечения п объ ектов из генеральной совокупности объема N поступают так: выписывают номера от 1 до N на карточках , которые тщательно перемешивают, и наугад вынимают одну ка р точку; объект, имеющий оди наковый номер с извлеченной ка рточкой , подве ргают обследованию;· затем карточку возвращают в пачку и процесс повторяют; т. е . карточки перемешивают, наугад вынимают одну из них и т. д. Так поступают п раз; в итоге получают простую случайную повторную выборку объема п. Если извлеченные карточки не возвращать в пачку, то выборка является п р остой случайной бесповторной . При большом объеме генеральной совокупности опи санный процесс оказывается очень трудоемким. В этом случае пользуются готовыми таблицами «слу чайных чисел», в которых числа расположены в случайном порядке. Для того чтобы отобрать, например, 50 объектов из пронуме рованной генеральной совокупности , открывают любую стр аницу таблицы случайных чисел и выписывают под ряд 50 чисел ; в выборку попадают те· объекты, номера которых сов падают с выписанными случайными числами . Если бы оказалось, что случайное число таблицы пре вышает число N, то та кое случайное число пропускают. При осуществлении бесповторной выборки случайные числа таблицы, уже встречавшиеся ранее , следует также пропустить. 190
Типически м называют отбор, при котором объе кты отби раются не из всей генеральной совокупности, а из каждой ее «типи ческой» части . Напр име р, если детал и изготовляют на нескольких станках , то отбор производят не из всей совокупности деталей, произведенных всеми станками , а из продукци:и .к аждого станка в отдм ьности. Ти пичес ким отбором пользуютс я тогда , когда обследуемый признак заметно .колеблется в различных тппически х частях генеральной со вокупности . Например, есл и про дукци я изготовляется на нескольких машинах, среди которых есть более и менее изношенные, то здес ь ·ти пи ческий отбор целесообразен. Механическим называют отбор, при котором генераль ную совоку пность «мех анически » дел ят на стол ько групп, сколько объектов должно войти в выборку , а из каждой группы отбирают один объект. Например, есл и нужно отоб рать 20 % изготовленных станком дет алей, то отби рают каждую пятую дет аль; если требуется отобрать 5% детал ей, то о\fбирают каждую двадцатую дета ль, и т. д. Сп:едует указать, что иногда механ ический отбор может не обес печить реп резентативности выборки. Например, есл и отб и рают каждый двадцаты й обтачиваемый вал ик, п р ичем сразу же после отбора производят замену резца, то отоб ранными окажутся все валики , обточенные затуплен ными резцами . В таком случае следует устранить совпа дение ритма от бора с ритмом замены резца, для чего надо отби рать, скажем, каждый десятый вал ик из двад цати обточенных . Серийным называют отбор, при котором объекты от би рают из генеральной совок упности не по од ному , а «сериями», которые подвергаются сплошному обследова нию. Например, если издел и я изготовляются большой группой ст анков-автоматов, то подвергают сплошному обследованию продукцию тольI<о нескол ьких станков. Серийным отбором пользуются тогда, когда обследуемый признак колеблется в различных сериях незначитель но. Подче ркнем, что на ·практике часто ·п р именяется ком бинированный отбор, при котором сочетаются указанные выше способы . На пример, иногда разби вают гене ральную совоку п ность н а сери и оди накового объема, затем простым случайным отбором выбирают :нескол ько серий и, наконец, из каждой серии простым случайным отбором извлекают отдельные объекты . 191
§ 6. Статистическое распределение выборки Пусть из генеральной совокупности извлечена выборка. причем х1 наблюдалось п1 раз, х2 - п 2 раз, xk -nk раз и � n; =n- объем выборки. Наблюдаемые значени я Х; называют вариантами , а последовател ьность вариант. записанных в воз растающем порядке, - ва риа· ционным рядом . Числа наблюдений называют частотами . а их отношения к объему выборки п1/п = W; - относи тел ьны.ии част ота ми . Стат ист ическим распределен ием выборки называют пе речень ва риант и соответствующих им частот или относи· тельны х частот. Статистическое расп ределение можно за дать также в виде последовател ьн ости и нтервалов и соответ· ствующих им частот (в качестве частоты , соответствующей интервал у, принимают сумму частот , попавших в этот интервал) . Заметим, что в теории вероятностей под распределением пони мают соответствие между возможными значениями случайной величины и их вероятностями , а в математи ческой статистике - соответствие ме жду наблюдаемыми вариантами и и х частотами, или относительными частотами . Пример. Задано распределение частот выборки объема п = 20: Х;2612 n;З107 Написать распределение относительных частот. Решение. Найдем относительные частоты , для чего разделим ч астоты на объем выборки: W1= 3/20=0,15, W2 = I0/20=0,50, W8= 7/20=0,35. Напишем распределение относительных частот: Xj 2 6 12 W; 0,15 0,50 0,35 Контроль: o,1s+o.so+o,З5=1. § 7. Эмпиричеокая функция распределе ния Пусть известно статистическое распределение ча стот кол ичественного признака Х . Введем обозначени я: nх - число наблюдений, при которых наблюдалось значен ие признака , меньше� х; n - общее число наблюдений (объем выборки ). Ясно, что относител ьная частота событи я Х < х равна nx/n. Если х изменяется , то, вообще говоря , из ме няетс я и относител ьная частота, т. е. относительная 192
частота пх/п есть функция от х. Так как эта функция находится эмпирическим (опытным) путем, то ее называют эмпи рической . Эмпир ическо й функцией распределения (функцией рас пределения выборки) называют функцию F* (х), опреде ляющую для каждого значения х относител ьную частоту события Х < х. Итак, по определению, F*(х)= nxfn, где пх - число вариант, меньших х; п-объем выборки . Таким образом, для того чтобы найти, например, F*(x2 ), надо числ о вариант, меньших х2, разделить на объем выборки : В отл ичие от эмпирической функции распределения выборки функцию распредел ения F (х) гене ральной сово купности называют теоретической функц ией распределе ния . Разл ичие между эмпирической и теоретической функ циями состоит в том, что теоретическая функция F (х) определяет вероятность события Х < х, а эмпирическая функция F* (х) определяет относител ьную частоту этого же события. Из теоремы Бернулли следует, что относи тельная частота события Х < х, т. е. F* (х) стремится по вероятности к вероятности F (х) этого события . Другими словами, при больших п числа F* (х) и F (х) мало отл и чаются одно от другого в том смысле, что lim Р [ 1 F (х)- п-+ф -F* (х) 1<е]= 1 (е >О). Уже отсюда следует целесооб разность использования эмпирической функции расп реде ления выборки для приближенного представления теоре тической (интеграл ьной) функции распределения гене рал ьной совокупности . Такое заключение подтверждается и тем, что F* (х) обладает всеми свойствами F (х) . Действител ьно, из оп ре деления функции F* (х) выте кают следующие ее свойства : 1 ) значения эмпирической функции принадлежат от резку [О, 1]; 2 ) F* (х) - неубывающая фу нкция; 3) если хi - наименьшая варианта, то F* (х) = О при х�х1; если хk -наибольшая варианта, то F* (x) = 1 при x>xk. 7-2 10 193
Итак, эмпир ическая функция р асп ределения выбор ки служит для оценки теоретической функции р асп редел ения Генер альной совокупности . Пример. Построить эмпирическую функцию по данному распре делению выборки: F*(x) варианты Xj 261О частоты ni 121830 Реш е н и е. Найдем объем выборки: 12+18+30=60. Наименьшая варианта равна 2, следовател ьно, F* (x) =O при х�2. Значение Х < 6, а именно х1 =2, наблюдалось 12 раз, ' сл едовательно, -; ;,+-�г;: == =�в� ��,о� �� ��к Рис. 19 F* (х) = 12/60 =0,2 при 2<х�6. Значения Х < 10, а именно х1 =2 и х2 = 6, наблюдались 12 + + 1 8=30 раз, следовательно, F* (х) =ЗО/60 =0,5 при 6<х.,.; ;; 10. Так как Х = 1 0-наибол_�шая варианта, то F•(х)=1 при х> 10. Искомая эмпирическая функция 1о р (Х)={ 0,2 0,5 1 при при при при х�2. 2<хо; ;; ;; б, 6<хЕО; ; IO, х>10. График этой функции изображен на рис. 19. § 8. Полигон и гистограмма Для наглядности строят р азличные г рафики ста тистического распределения и, в частности, п олигон и гистограмму. Полигоном частот называют ломаную, отрезки которой соединяют точки (х1; п1), (х2; п2), •••, (xk; tik). Для -по строения полигона частот на оси абсцисс откладывают ва рианты xi • а на оси о рдинат- соответствующие им частоты ni . Точки (xi; ni) соеди няют отрезками прямых и получают полигон частот. Полигоном относительных часпi от называют ломаную, отрезки которой соединяют точки (х1; W1), (х2 ; W2), ••• 194
• .•, (xk ; Wk). Для построения полигона относительных частот на оси абсцисс откладывают варианты xi , а на оси ординат - соответствующие им относительные ча стоты Wi. Точки (xi ; Wi) соеди няют отрезками прямых и полу чают полигон о rно сительных частот . На рис. 20 изобр ажен полигон относител ьных ча стот следующего распре деления: х 1,5 3,5 5,5 7,5 w о,1 0,2 0,4 0,3 1 1- -.1- - ' � ..i. .. ..->- ' 1 � · 1 � · 1� · Jfl о 23,5 678 Рис. 20 В случае непрерывного признака целесо образно строить гистограмму, для чего интервал, в ко тором заключены все наблюдаемые значения признака, разбивают на несколько частичных интервалов дл иной h 7 6 5 3 2 о5··101�2025зоз5'о Рис. 21 и находят для каждого частичного интервала пi - сумму частот вари ант, попавших в i-й интервал . Г истограммой ча- стот называют ступен чатую фигу ру, состоя щую из прямоугольни ков, основаниями кото рых служат частичные интер валы длиною h, а высоты равны отноше нию n1/h (плотность ча стоты). Для построения гистограммы частот на оси абсцисс откладывают частичные интервалы, а над ними проводят отрезки , параллельные оси абсцисс на расстоянии n1 /h. Площадь i-го частичного прямоугольника равна hn1 /h = пi -сумме частот вариант i-го интервала; следо вательно, площадь гистограммы част от равна сумме всех частот , т. е . объему выборки . На рис. 21 изображена гистограмма частот распреде ления объема п = 100, приведенного в табл . 6 . Гистограммой относительных частот называют сту пенчатую фигуру, состоящую из прямоугольников, осно ваниями которых служат частичные интервалы длиною h, 195
а высоты равны отношению Wi/h (плотность относитель ной частоты). Для построения гистограммы относительных частот на оси абсцисс откл ады вают частичные интервалы, а над Частичный и нтерва.n частичного интер- /Сумма частот вариант' .ц.nиною h=5 ва.nа n; 5-10 4 10-15 6 15-20 16 20-25 36 25-30 24 30-35 10 35-40 4 Таблица 6 П.nотность частоты n;/h 0,8 1,2 3,2 7,2 4,8 2,0 0,8 ними проводят отрезки, параллельные оси абсцисс на расстоянии W;/h. Площадь i-го частичного прямоуголь ника равна hW;/h = W; - относительной частоте вариант, попавших в i -й интервал . Следовател ьно, площадь гисто грамм ы относительных частот равна сумме всех отно сительных частот , т. е . единице. Задачи 1. Построить график эмпирической функции распределения Xj571015 n12387 2. Построить полигоны частот и относительных частот распре· деления Xt 13579 n11015303312 3. Построить гистограммы частот и относительных частот рас пределения (в первом столбце указан частичный интервал, во вто ром -сумма частот вариант частичного интервала) 196 2-5 9 5-8 1О 8-11 25 11-14 6
Глава шестнадца тая СТАТИСТИЧЕСК И Е ОЦЕНКИ ПАРАМЕТРОВ РАСПРЕДЕЛЕНИЯ § 1. Статистические оценки параметров распределения Пусть требуется изучить количественный признак генеральной совокупности . Допусти м, что из теоретичес ких соображений удалось установить, какое именно рас пределение имеет признак . Естественно возникает задача оценки параметров, кото рыми определяется это распреде ление. Например , если наперед известно, что изучаемый признак распределен в генеральной совокупности нормаль но, то необходимо оценить (приближенно найти) матема тическое ожидан ие и среднее квадратическое отклонение, так как эти два параметра полностью определ яют нормаль ное распределение; если же есть основания считать , что признак имеет, на пример, распределение Пуассона, то необходимо оценить параметр Л, которым это распреде ление определяется . Обычно в распоряжен ии исследователя имеются лишь данные выборки, например значения кол ичественного при знака х1 , х2 , •••, хп , полученные в результате п наблюде ний (здесь и далее наблюдения предполагаются независимы· ми). Через эти данные и выражают оцениваемый параметр . Рассматривая х1, х2 , •• •, хп как независимые случайные величины Хн Х 2 , •••, Хп, можно сказать, что найти статистическую оцен ку неизвестного параметра теоретиче ского распределения - это значит найти функцию от наблюдаемых случайных величин, которая и дает при ближенное значение оцениваемого параметр а. Например, как будет показано далее, для оцен ки математического ожидания нормального распределения служит функция (среднее арифметическое наблюдаемых значений призн ака) Итак, статистической оценкой неизвестного пара метра теоретического распределения называют "функцию от наблюдаемых случайных величин. 197
§ 2. Несмещенные, эффективные и состоятельные оценки Дл я того чт,обы статистические оценки давал и «хорошие» приближения оцен иваемых параметров, он и должны удовлетворять определенным: требованиям. Ниже указаны эти требования. Пусть 0"' - статистическая оценка неизвестного пара метра 0 теоретического распределения. Допустим, что по выборке объема п найдена оценка 0�. Повторим опыт, т. е. извлечем из генеральной совокупности другую вы борку того же объема и по ее данным найдем оценку 0;. Повторяя опыт многократно, получим числа 0�. 0;, .. ., 0,;, которые, вообще говоря, различны между собой. Таким образом, оценку 0"' можно рассматривать как случайную величину, а числа 0�. 0;, .. ., 0k - как ее возможные значения. Предста вим себе, что оценка 0"' дает пр иближенное значение 0 с избытком; тогда каждое найденное по дан ным выборок число 0; (i = 1, 2, . ..• k) больше истинного значения 0. Ясно, что в этом случае и математическое ожида ние (среднее значение) случайной величины 0"' боль ше, чем 0, т. е. М(0"')>0. Очевидно, что если 0"' дает оценку с недостатком, то М (0"') < 0. Таким образом, использование статистической оцен ки, математическое ожидание которой не равно оцениваемом у nараметру, привело бы к систематическим • ) (одного знака) ошибкам. По этой причине естественно потребовать, чтобы математическое ожидание оцен ки 0"' было равно оцен ива емому параметру. Хотя соблюдение этого требован ия не устр анит ошибок (одни значения 0"' больше, а другие меньше 0), однако ошибки разных знаков будут встреча1 ь ся од инаково часто. Иными словами, соблюдение требова ний М (0*) = 0 гарантирует от получен ия систематически х ошибок. Несмещенной называют �татистическую оценку0"', мате матическое ожида ние которой равно оцениваемому пара метру 0 при любом объеме выборки , т. е. м (0*) =0. *) В теории ошибок измерений систематическими ошибками назы вают неслучайные ошибки, искажающие результаты измерений в одну определенную сто рону. Например, измерение длины растянутой рулет кой систематически дает заниж�нные результаты. 198
Смещенной называют оцен ку, математическое ожидание 1ю торой не равно оцениваемому параметру. Однако было бы ошибочным считать, что несмещенная оценка всегда дает хорошее приближение оцениваемого параметра. Действител ьно, возможные значения 0* могут быть сильно рассеяны вокруг своего среднего значения, т. е . дисперсия D (0*) может быть значительной. В этом случае найденная по данным одной выборки оценка, на пример 0�, может оказаться весьма удаленной от среднего значения 0•, а значит, и от самого оцениваемого пара метра 0; приняв 0� в качестве приближенного значения 0, мы допустили бы большую ошибку. Если же потребовать, чтобы дисперсия е• была малой, то возможность допустить большую ошибку будет исключена. По этой причине к статистической оценке предъявляется требование эффек тивности . Эффективной называют статистическую оценку, которая (при заданном объеме выборки п) имеет наименьшую воз можную дисперсию. При рассмотр ении выборок большого объема (п вели ко !) к статистическим оценкам предъявляется требование состоятельности. Состоятельной называют статистическую оценку, кото рая при п --+ оо стремится по вероятности к оцениваемому параметру. Например, если дисперсия несмещенной оцен ки при п--+оо -стремится к нулю, то такая оценка оказы вается и состоятельной. § 3. Генеральная средняя Пусть изучается дискретная генеральная совокуп ность относител ьно кол ичественного признака Х . Генеральной средней Хг называют среднее арифметичес кое значений признака генеральной совокупности. Если все значения х1 , х2 , •••, XN признака генераль ной совокупности объема N разл и ч ны, то Хг=(Х1+х2+ ...+xN)/N. Если же значения признака х1 , х2 , •••, xk имеют соответственно частоты N1, N 2 , •••, Nk, причем N1 + +N2+...+Nk=N,то Хг = (x1N1 +x2N2 + ...+xkNk)/N, 199
т. е . генерал ьная средн яя есть средн яя взвешенная зна чен ий признака с весами, равны ми соответствующи м ча стотам . 3 а м е ч а н и е. Пусть генеральная совокупность объема N со держит объекты с различными значениями признака Х, равными х1 , х2 , • • • , хм Представим себе , что из этой совокупности наудачу извлекается один объект. Вероятность того, что будет извлечен сбъект со значением признака , например х1, очевидно, равна l/N. С этой же вероятностью может быть извлечен и любой другой объект. Таким образом, вел ичину признака Х можно рассматривать как случайную величину, возможные значения которой х1, х2 , •••, Хп имеют одина ковые вероятности,равные 1 /N. Найдем математи ческое ожидание М(Х): M (X) =X1 • l/N +x2 ·1/N+ ...+xNol/N =(x1 -t x2 + ...+xN)/N =xг. Итак, если рассматривать обследуемый признак Х генеральной совокупности как случайную величину, то математическое ожидание признака равно генеральной средней этого признака: М (Х) =хг. Этот вывод мы получили, считая, что все объекты генеральной совокупности имеют различные значения признака. Такой же итог будет получен , если допустить , что генеральная совокупность содер жит по нескольку объектов с одинаковым значением признака . Обобщая полученный результат на генеральную совокупность с непрерывным распределением признака Х, и в этом случае опре делим генеральную среднюю как математическое ожидание признака: Хг=М(Х). § 4. Выбороч ная средняя Пусть дл я изучения генеральной совокупности относител ьно коли чественного признака Х извлечена вы борка объема п . Выбор очной средней х0 называют среднее арифмети ческое значение признака выборочной совокупности . Если все значения х1 , х2 , •••, хп признака выборки объема п различны, то Х8 = (х1+Х2+ ...+хп)/п. Если же значения признака х1 , х2 , •• •, xk и меют соот ветственно частоты n1 , n2, •••, nk, причем п1 + п2 + ... ...+nk=n,то Х8 = (п1х1+п2х2+ . ..+n�k)/n, или (k ' Х8= -�n;X;)Jn, •=1 200
т. е . выб орочная средн яя есть средн яя вз вешен ная зна чений признака с весами, равными соответст вующим ча стотам. 3 а мечани е. Выборочная средняя, найденная по данным одной выборки , есть , очевидно, определенное число. Если же извлекать другие выбо рки того же объема из тсй же гене ральнсй совокупности, то выбо рочная средняя будет изменяться от выборки к выборке. Таким сбразом, выборочную среднюю можно рассматривать как слу чайную величину , а следовательно, можно говорить о распределениях (теоретическом и эмпирическом) выборочной средней и о числовых характеристиках этого распределения (его называют выборочным) , в частности о математическом ожидании и дисперсии выборочного распределения. Заметим, что в теоретических рассужден иях выборочные значения х1, х2 , •••, хп признака Х, полученные в итоге неза висимых наблюдений, также рассматривают как слу чайные величины Х1, Х2, •••, Хп, имеющие то же распре деление и, следо вател ьно, те же числовые характеристики , которые имеют Х .' § 5. Оценка генеральной средней по выбороч ной средней. Устойчивость выборочных средних Пусть из генеральной совокупности (в резуль- тате независимых наблюдений над кол ичествен ным при знаком Х) извлечена повторная выборка объема п со значениями признака х1, х2, •••, хп . Не уменьшая общ ности рассуждений, будем считать эти значения признака различными . Пусть гене ральная средн яя хг неизвестна и требуется оценить ее по данным выборки. В каче стве оценки генеральной средней принимают выборочную среднюю Убедимся, что Х8 - несмещенная оценка, т. е . покажем, что математиче<:�_юе ожидание этой оценки равно Х:,. Будем рассматривать Хв как случайную вел ичину и х1, х2 , •••, хп как независимые, од инаково распределенные случайные величины Х1, Х2 , •••, Хп . Поскольку эти величины оди наково распределены, то они имеют оди наковые числовые характеристики, в частности оди наковое математическое ожида ние, которое обозначим через а . Так как матема тическое ожида ние среднего арифметического оди наково распределенных случайных вел ичин равно математичес- 201
кому ожиданию каждой из величин (см. гл . VllI, § 9), то М(Х8) =М[(Х1+Х2+ ...+Xп)fn]=а (*) Приняв во внимание, что каждая из величин Х1, Х2, ••• • . . , Хп имеет то же распределение, что и генеральная совокупность (которую мы также рассматриваем как слу чайную величину), заключаем, что и числовые характе ристики этих величин и генеральной совоку пности оди наковы . В частности , математическое ожидание а каждой из вел ичин равно математическому ожида нию признака Х генеральной совокупности , т. е. М (X) =Xr =а. Заменив в формуле (*) математическое ожидание а на хг • окончател ьно получим М(X8)=Xr• Тем самым доказано, что выборочная средн яя есть не смещенная оценка генеральной сред ней . Легко показать, что выборочная средняя является и состоятельной оценкой генеральной средней. Действи тельно, до пуская, что случайные вел ичины Х1, Х 2, •••• Хп имеют ограниченные дисперсии, мы вправе применить к этим величинам теорему Чебышева (частный случай). в силу которой при увеличении п среднее арифметическое рассматриваемых вел ичин, т. е . Х8, стремится по веро ятности к математическому ожиданию а каждой из вел и- чин, или, что то же, к генеральной средн ей Хг (так как Xr =a). Итак, при увел ичении объема выборки п выборочная средняя стремится по вероятности к генеральной сред ней , а это и означает. что выборочная средн яя есть состоя тел ь ная оценка генеральной средней. Из сказанного следует также, что если по нескольким выборкам достаточно боль шого объема из одной и той же генеральной совокупности будут найдены выборочные средн ие, то они будут при ближенно равны между собой . В этом и состоит свойство устойчивости выборочных средних. Заметим, что есл и дисперсии двух одинаково распре деленных совокупностей равны между собой , то близость выборочных средних к гене ральным не зависит от отно шен ия объема выборки к объему генеральной совокуп ности . Она зависит от объема выборки: чем объем выборки 202
больше, тем меньше выбороч ная средн яя отличается от генеральной . Например, если из од ной совокупности ото бран 1 % объектов, а из другой совокуп ности отобрано 4 % объектов , причем объем первой выборки оказался больши м, чем второй, то первая выборочная средняя бу дет меньше отл ичаться от соответствующей генеральной средней, чем вт орая. 3 а мечани е. Мы предполагали выборку повторной. Однако полученные выводы применимы и для бесповторной выборки, если ее объем значительно меньше объема генеральной совокупности. Это по ложение часто используется на практике. § 6. Группова я и общая средние Допустим, что все значен ия кол ичественного при знака Х совокупности , безразлично-генеральной или вы борочной, разбиты на несколько групп. Рассматривая каждую группу как самостоятел ьную совокупность, можно найти ее среднюю арифметическую. Групповой средней называют среднее арифметическое значен ий признака, принадлежащих группе. Теперь целесообразно ввести специальный термин для средней всей совокупности . Общей средней х называют среднее арифметическое значений признака, принадлежащих всей совокупности . Зная групповые средн ие и объемы групп, можно найти общую среднюю : общая средняя равна средней арифмети ческой групповых средних, взвешенной по объемам групп . Опуская доказательство, приведем иллюстрирующий пример. Пример. Найти общую среднюю совокупности, состоящей из cJie· дующих двух групп: Группа ..•. . Значение признака . Ч астота .•••.. Объем . • . .• .• первая 1 • • 10 • 10+ 15=25 6 15 Реш е н и е. Найдем групповые средние: х1 =(10· 1+15·6)/25 =4; 'Х2 • (20 · 1 +зо-5)/50 =3,4. вторая 1 20 20 +30=50 Найдем общую среднюю по групповым средним: х=(25.4+50.3,4)/(25+50)=3,6. 5 30 3 а м е ч а н и е. Для упрощения расчета общей средней совокуп ности большого объема целесообразно разбить ее на несколько групп, найти групповые средние и по ним общую среднюю. 203
§ 7. Отклонение от общей: средней и его свойство Рассмотрим совокупность, безразлично - гене ральную или выборочную, значений t<ол ичественного при знака Х объема п: значения признака частоты .. k При этом � ni = п . Далее для удобства записи знак cyм i=I k мы � заменен· знаком � i=1 Найдем общую средн юю : х=(�nixi)/n. Отсюда �nixi = пх. (*) Заметим, что поскольку х- постоя нная величина, то �n;x =х!;n;=nX. (**) Отклонением называют разность xi - x между значе нием признака и общей средней. Теорема . Сумма произведений отклонений на соответ ствующие частоты равна нулю: �ni(xi-x)=О. Доказательство. Учитывая (*) и (**) , получим �ni (xi-x) =�nixi-!:nix=пх-пх=о. Следствие. Среднее значение отклонения равно нулю. Действител ьно, (� n; (xi -x))I� пi = 0/п =О. Пример. Дано распределение количественного признака Х: х; 123 n;1046 Убедиться, что сумма произведений отклонений на соответствующие частоты равна нулю. Решение. Найдем общую среднюю: х=(10·l+4·2+6·3)/20=1,8. Найдем сумму произведений отклонений на соответствующие частоты: �п; (х;-Х} = 10 (1-1,8)+4(2-1,8)+6(3-1,8)=8-8=0. 204
§ 8. Генеральная дисперсия Для того чтобы охарактеризе>вать рассеяние зна чений кол ичественного признака Х генеральной совокуп ности вок руг своего сред него значен ия, вводят сводную характеристику - генеральную дисперсию. Генеральной дисперсией D г называют среднее арифме тическое квадратов отклонений значений П�JИЗнака гене- ральной совокупности от их среднего значения ;;. . Если все значения х1 х2, •••, xN признака генеральной совокуп ности объема N различны, то Dг = с�(х1-хг) 2)/N. Если же значения признака х1 , х11 , •• . , xk имеют соответственно частоты N1 , N 2 , ••" Nk, причемN1+ +N1+ ...+Nk=N, то Dг = (.± N 1(Х1-хг)2)/N, '""1 т. е. генеральная дисперсия есть средняя взвешенная квадратов откл онений с весами , равными соответствую щим частотам. Пример. Генеральная совокупность задана таблицей распреде ления Х{24 N;.89 Найти генеральную дисперсию. 56 103 Решение. Найдем генеральную среднюю (см. § 3): 8·2+9·4+ 10·5+3·6 120 Xr в+9+1о+з =30 =4• Найдем генеральную дисперсию; 8·(2-4)11 +9·(4-4)11 + 10 ·(5-4)11+3·(6-4)11 Dr= ЗО =54/30= 1,8. Кроме дисперсии для характе�·шстики рассеяния зна чений признака генеральной совокупности вокруг своего среднего значения пользуются сводной характеристикой средним квадратическим отклонением . Генеральным средним квадратическим отклонением (стандартом) называют квадратный корень из генераль ной дисперсии: 205
§ 9. В ыбороч ная дисперсия Для того чтобы ох арактеризовать рассеяние наблюдаемых значений кол ичест�енного признака выборки вокруг своеr:о среднего значения Х8 , вводят сводную характе ристику - выборочную дисперсию. Выборо чной дисперсией Dв называют среднее арифме тическое квадратов отклонения нао_людаемых значений признака от их среднего значения Х8 • Если все значения х1 , х2 , •••, Хп признака выборки объема п различны, то Dв = (t(Х;-Х8) 2 )/п . l=1 Если же значения признака х1 , х2 , •••, xk имеют со ответственно частоты n1, n8, ..., nk, причем п1 + п2 + . .. ...+nk=n,то Dв= (in;(Х1-Х8) 2 )Jп , i=1 т. е. выборочная дисперси я есть средняя взвешенная квадратов отклонен ий с весами, равными соответствую щим частотам. Пример. Выборочная совокупность задана таблицей распре деления Xj 1234 n;2015105 Найти выборочную дисперсию. Р ешение. Найдем выборочную среднюю (см. § 4): - _20 .1+15·2+�о.з+5·4 100 _2 Хв- 20 + 15+ 10+5 50- • Найдем выборочную дисперсию: 20 ( l -2)2 + 15.(2-2)2 + J 0 .(3-2)a +5·(4-2)2 Dв= 50 =50/50 = 1. Кроме дисперсии для характеристики рассеяния зна чений признака выборочной совокупности вок руг своего среднего значения пользуются сводной характеристи кой - средним квадратическим отклонением. Выборочным средним квадратическим отклонением (стандартом) называют квадратный корень из выбороч ной дисперси и: <1в = VDв• 206
§ 1 О. Формула для вычисления дисперсии Вычисление дисперсии, безразлично-выборочной или генеральной , можно упростить, используя следую щую теорему. Теорема. Дисперсия равна среднему квадратов значен ий признака минус квадрат общей средне й: D="Х2 - ['Х]11. Док азательств о. Справедл ивость теоремы выте кает из преобразований: D=�n1(х1-х)11 = �n1(xl - 2x1x+ fX12} .. .. п п �n1xl - �ri;x1 - �n1 - -- - z: ::z п 2 х- п - +[х]2 - п -=Х2-·2 х·Х+[x]'=- = xs-[x]s. Итак , D=xs -[x]s, где х = (� п1хNп , х1 =(�п1х�)/п . Пример. Найти дисперсию по данному распределенИIСt Х/ 1 234 n12015105 Р е ш е ние. Найдем общую среднюю: -_ 20 .1+ 15.2+ 10.з+5·4 _ 100 2 Х- 20 + 15+ 10+5 - 50= • Найдем среднюю квадратов значений признака: х - 2= 20 .12 +1s.22 +10.з2 +5. 42 5 50 =. Искомая дисперсия D=x11-r:XJ2=s-22 =1. § 11. Групповая , внутригрупповая, межгрупповая и общая дисперсии Допустим, что все значен ия количественного признака Х совокупности , безразлично-генеральной или выборочной , разбиты на k групп. Рассматривая каждую группу как самостоя тельную совокупность, можно найти групповую среднюю (см . § 6) и дисперсию значений при- 207
зн ака, при надлеж ащих группе, относительно групповой средней. Групповой дисперсией называют дисперсию значений признака, принадлежащих группе, относител ьно группо вой сред ней Djгp = (�п; (x;-Xi)2)/Ni, где п ; -частота значения х;; j - номер группы ; хi - груп повая средняя группы j; Ni = �п ; -объем группы j . Пример 1. Найти групповые дисперсии совокупности, состоящей :из следующих двух групп: Первая группа Вторая группа х; п; 2l 47 52 XjЩ 32 83 Ni=�n;=10 N2 =�щ =5 Р е m е н и е. Найдем групповые средние: х1 =(�n;xi )l�щ=( l ·2+7 ·4+2·5)/10=4; х2 = (2 ·3+3.8)/5 =6. Найдем искомые групповые дисперсии: D1гр = (�ni (x; - xi)2)/N1 = = ( l .(2-4)2+7·(4-4)2 +2.(5- 4)2)/10=0,6; D2гр = (2· (3-6)2+3·(8-6)2)/5=6. Зная дисперсию каждой группы, м ожно найти и х среднюю арифмети ческую. Внутригрупповой дисперсией называют среднюю ариф мети ческую ди сперсий, взвешенную по объем ам групп: Dвнгр = (� NjDjгp)/п, k где Ni - объем группы j; п = � N1-объем всей coвo i=I купности . Пример 2. Найти внутригрупповую дисперсию по данным при мера 1. Реш е н и е. Искомая внутригрупповая дисперсия равна Dвнгр= (N1D1гp +N2D2 гp)/n = (I0.0 ,6+5·6)/15= 12/5. Зная групповые средние и общую сред нюю, м ожно найти дисперсию групповых средн их относительно общей средней . 208
Межгруппово й дисперси ей называют дисперсию груп повых средн их относите.т�ьно общей средней : Dмежгр = (� Nj (xj - x)2)/n , где хj-гр упповая средняя группы j; Nj - объем группы j; k х-общая средняя; п = � Nj - объем всей совоку пности . i=1 Пример 3. Найти межrрупповую дисперсию по данным при мера 1. Решение. Найдем общую среднюю: _ � n;x; X=-- - �n; 1 -2+7· 4+2· 5+2·3+3-8 15 14 = з· Используя вычисленные выше вели цины х1 = 4 , Xz = 6 , найдем искомую межrрупповую дисперсию: D - Ni (X1-x)2+ N2 <X 2 - x)2 межгр - п !0 ·(4- 14/3)2 +5·(6- !4/3)2 • 8 15 9· Теперь цел�сообразно ввести специальный те рмин для дисперсии всеи совокупности. Обtцей дисперсией называют дисперси ю значений при знака всей совокупности относительно общей средней: Dобщ = (� n; (х; -Х)2)/п, Где 11;-ЧаСТОТа значения Х;; Х-общая средняя; n-объем всей совокупности . Пример 4. Найти сбщую дисперсию по данным примера 1. Решение. Найдем искомую общую дисперсию, учитывая, что общая средняя равна 14/3: 1 ·(2- 14/3)2 +7·(4- 14/3)2--j-2 -(5 - 14/3)2 Dобщ = 15 + + 2·(3- 14/3)2 +3- (8 -14/3)2 148 15 45. З амеч а ние. Найденная общая дисперсия равна сумме внутри групповой и межгрупповой дисперсий: Dобщ = 148/45; Dвнгр + Dмежгр=12/5 + 8/9 = 148/45. В следующем параграфе будет доказано, что такая закономерность справедлива для любой совокупности. 209
§ 12. Сложение дисперсиА Теорема. Есл и совокупность состоит из несколь ких групп, то общая дисперсия равна сумме внутригруп повой и межгрупповой дисперси й : Dобщ = Dвнгр + Dмежгр• Док азательств о. Для упрощения доказательства предположим, что вся совокупность значений количест венного признака Х разбита на две следующ ие группы: Группа . . . . . первая вторая Значение признака· х1 х2 х1 х1 Частота..... т1 т2 п1 п2 Объем группы . . . N1 =!!1•+т1 N1 _п1+п1 Групповая средня я х1 х2 Групповая дисперсия . . D 1гр D вгр Объем своей совокупности п = N 1+N1 2 Далее для удобства записи вместо знака суммы � i=I 2 пишется знак �· Например, �т1= �т1 = т1 +т1 = N 1• 1=1 Следует также иметь в виду , что если под знаком суммы стоит постоянная величина, то ее цел есооб разно выносить за знак суммы. Например, � т 1 (х1 - х)2 = = (х1-х)2�т1=(х1-х)2N 1• Найдем общую дисперсию : D06щ = (�т1(х1-х)2+�п1 (х1-х) 2)/п. (*) Преобразуем первое слагаемое числител я, вычтя и п р и бавив х1 : �т1(х1-х)2 = �т1[(x1-Xi>+(х1-Х}]2 = =�т1(х1-х 1)2+2(х1- х)�т1(х1-�)+�т1(х1-Х}2• Так как �т1(х1-х 1)2=N 1D1гp (равенство следует из соотношен ия D1гр = (»1z/(х1-х 1)2)/N1) ивсилу§7 210
то первое сла гаемое принимает вид �mi (xi- x1)2 = NiD1гp +N1 <Х1 -х)2 . (**) Аналогично можно предс тавить второе слагаемое чи слителя (*) (вычтя и прибавив х2) : �ni(xi-x)2 = N2D2гр +N11(х2- х)2 • Подставим (**) и (***) в (*) : Dобщ = (N1D1гр +N2D2гp)/n + +(N1(х1-х)2+N2(х2- Х}2)/п=Dвнгр+Dмеж1·v· Итак , Dобщ = Dв нгр + Dмежгр • Пример. ил.Люстрирующий доказанную теорему . приведен в предыдущем параграфе. 3 а м е ч а н и е. Теорема имеет не только теоретическсе, но и важное практическое значение. Например, если в результате наблю дений получены несколько групп значений признака, то для вычис ления общей дисперсии можно группы в единую совокупность не объединять. С другой стороны, eCJiи совокупность имеет большой объем, то целесообразно разбить ее на несколько групп. В том и другом случаях непосредственное вычисление сбщей дисперсии заме няется вычислением дисперсий отдельных групп, что сблегчает рас четы. § 13. Оценка генеральной дисперсии по исправленной выборочной Пусть из гене ральной совокупности в резуль тате п независимых наблюдений над количественным при знаком Х извлечена повторная выборка объема п : значения признака . . . . . х1х2 xk частоты.............п1п2•••nk Приэтом п1+п2+ ...+nk=n. Требуется по данным выборки оцен ить (прибл иженно найти) неизвестную генеральную дисперсию Dг . Если в ка честве оцен ки генеральной дисперсии принять выборочную дисперсию, то эта оценка будет при водить к систематиче ским ошибкам, давая заниженное значение генеральной дисперсии. Объясняется это тем, что, как можно дока зать, выборочная дисперсия является смещенной оцен кой Dг• другими словами , математическое ожидание выбороч ной дисперсии не равно оцениваемой генеральной дис- _ 211
персии, а равно Легко «исправить» выборочную дисперсию так, чтобы ее математическое ожидание было равно генеральной дисперс ии. Достаточно для этого умножить Dв на дробь n/(n -1). Сделав зто, получим исправленную дисперсию, кото рую обычно обозначают через 52 : k � n1 (х; -х8) 2 52=_ п _ D=_ п __ i_ = _ 1 _____ п-1 в n-1 п k �n1(х;-Х8)2 i=1 п-1 Исправленная дисперсия является, конечно, несме щенной оценкой генеральной дисперсии. Действител ьно, М[52]=М [ - n-D]=- n-M [D ]=- п -. n-ID=D n-1 8 n-1 в n-1 п r r· Итак, в качестве оценки генеральной дисперсии при нимают исправленную дисперсию 52 = (.± п1(х1-Х8)2)/<п-l). i=l Для оценки же среднего квадратического отклонения гене ральной совокупности используют «исправленное» среднее квадратическое отклонение, которое равно квад ратному корню из исправленной дисперсии: Подчеркнем, что 5 не является несмещенной оценкой; чтобы отразить этот факт, мы написали и будем писать далее так: «исправленное» среднее квадратическое откло нение. 3амечание. Сравнивая формулы Dв(�n1 (х1-хвУЧ!п и s 2 = (�n1(х1-х)2)/(п-1), видим, что они отличаются лишь знаменателями. Очевидно, при достаточно больших значениях п объема выборки выборочная и исправ ленная дисперсии различаются мало. На. практике пользуются исправ ленной дисперсией, если примерно п <"30. 212
§ 14. Точность оценки , довери тельная вероятность (надежность). Доверительный интервал Точечной называют оценку, которая определяетс я одн им числ ом. Все оцен ки, рассмотренные выше, - точечные. При выборке малого объема точечная оценка может значительно отл ичаться от оцен иваемого параметра, т. е . привод ить к грубым ошибкам. По этой причине при небол ьшом объеме выборки следует пользоваться интер вальными оценками . Интервальной называют оцен ку , которая оп редел яется двумя числами-концами интервала. Интервальные оцен ки позволяют установить точность и надежность оценок (смысл этих понятий выясняется ниже). Пусть найденная по данным выборки статистическая характеристика 0• служит оцен кой неизвестного пара метра 0. Будем считать 0 постоянным числом (0 может быть и случайной величиной). Ясно, что 0* тем точнее определяет параметр 0, чем меньше абсолютная величина разности l 0-0* 1 • Другими словами, если б >О и 1 0-0* 1 < б, то чем меньше б, тем оценка точнее. Таким образом, положител ьное число б характеризует точность оценки . Одн ако статистические методы не позволяют катего рически утверждать, что оценка 0* удовлетворяет нера венству / 0-0* / < б; можно лишь говорить о вероят ности у, с которой это неравенство осуществл яется. Надежностью (доверител ьной вероят ност ью) оценки 0 по 0 * называют вероятность у, с кото рой осуществ ляется неравенство / 0-0* 1 < б. Обычно надежность оценки задается наперед, причем в качестве 1' берут число, близкое к ед инице. Наиболее часто задают надеж ность, равную 0,95; 0,99 и 0,999. Пусть вероят ность того, что \ 0-0* 1 < б, равна yi Р[\0-0* 1 < б] =у. Заменив неравенство / 0-0* 1 < б равносильным ему двой ным неравенством -б< 0-0* < б, или 0* -б < е < <е•+б, имеем Р[0*-б<0<0*+б]=у. Эго соотношение следует понимать так: вероятность того, что интервал (0*-б, 0* +б) заключает в себе (покры вает) неизвестный параметр 0, равна у. 213
Доверительным называют интервал (0* - б , 0• + б), кото рый покрывает неизвестный параметр с заданной надежностью -у. 3 а мечани е. Интервал (0*-б, е•+ б) имеет случайные концы (их называют доверительными границами). Действительно, в разных выборках получаются раЗJiичные значения е•. Спедова тельно , от выборки к выборке будут изменяться и концы довери тельного интервала , т. е . доверительные границы сами являются случайными величинами- функциями от х1 , х2 , •• •, Хп. Так как случайно/\ величиной является не оцениваемый пара метр 0, а доверительный интервал , то более правильно говорить не о вероятности попадания 0 в доверительный интервал, а о вероят ности того, что дове рительный интервал покроет 0. Метод доверител ьных интервалов разработал амери канский статистик Ю. Нейман, исходя из идей англий ского статистика Р. Фишера. § 1 5. Доверительные интервалы для оценки математического ожидания нормального распределения при известном а Пусть количественный признак Х генеральной . совокупности расп ределен нормально, причем среднее квадратическое отклонение о этого распределения известно. Требуется оuенить неизвестное математическое ожида ние а по выборочной средней Х. Поставим своей задачей найти доверител ьные интервалы, покрывающие параметр а с надежностью -у. Будем рассматривать выборочную среднюю х как слу- . чайную величину Х (х изменяется от выборки к выборке) и выборочные значения признака Х1 , х2 , • ••, хп -как оди на ково распределенные независи мые случайные вели чины Х1, Х 2 , •••, Х п (эти числа также изменяются от выборки к выборке) . Другими словами , математическое ожидание каждой из �тих величин равно а и среднее квадратическое отклонен ие -О'. Примем без доказ ательства, что есл и случайная вел и чина Х распредел ена нормально, то выборочная средн яя Х, найденная по ·независимым наблюдениям, также рас пред елена нормально. Параметры распределения Х таковы (см. гл. Vlll, § 9): · 214 м (Х)=а, о (Х)= o/Vn.
Потр ебуем, чтобы выполнялось соотношение Р(/X-al <б)=у, где у-задан ная надежность. Пользуясь формулой (см. г.11 . Х II, § 6) Р(/Х-а1 <б)=2Ф(б/о), заменив Х.на Х и а на а(Х)=a/Vn, получим Р(1Х-а1<б)=2Ф(бVn/a) =2Ф(t), где t=бVn/а. Найдя из последнего равенства б = ta/Vn, можем на- писать Р(\Х-а1<ta/Vn)=2Ф(t). Приняв во внимание, что вероятность Р зада на и равна у, окончател ьно имеем (чтобы получить рабочую формулу , выборочную среднюю вновь обозн ачим через х) P(i- ta/Vп <а<x+ta/Vn)=2Ф(t)=y . Смысл полученного соотношения таков: с надежностью у можно утверждать, что доверительный интервал (x- ta/Vп. х + ta/Vn) покрывает неизвестный параметр а; точность оценки б = ta/V-n . Итак, поставленная выше задача полностью решен а. Укажем еще, что число t определ яется из равенства 2Ф (/)=у, или Ф (t) = у/2 ; по таблице функции Лапласа (см. приложение 2) находят аргумент t, которому соот ветствует значение функции Лапласа , равное у/2. 3 а меча ние 1. Оценку 1 х- а 1 < ta/ Vn называют классиче ской. Из формулы {) = ta/ yn, определяющей точность классической оценки, можно сделать следующие выводы: 1 ) при возрастании объема выборки п число {) убывает и, следо вательно, точ ность оценки увеличивается; 2) увеличение надежности оценки у=2Ф (t) приводит к увеличе нию t (Ф (/)-возрастающая функция), следовательно , и к возраста нию {); другими с.аовами, увеличение надежности классической оценки влечет за собой уменьшение ее точности. Пример. Случайная величина Х имеет нормальное распределение с известным средним квадратическим отклонением а=3. Найти дове рительные интервалы для оценки неизвестного математического ожи- дания а по выборочным средним х, если объем выборки п = 36 и задана надежность оценки у = 0,95. • 215
Реш е н и е. Найдем t. Из соотноше ния 2Ф (t) = 0,95 получим Ф (t) = 0,475. По таблице приложения 2 находим t = 1,96. Найдем точность оценки: б=tо/ Yn =(1,96 . 3)/ У36=0,98. Доверительный интервал таков: (х - 0,98; х+О,98). Например, если х 4,1, то доверительный интервал имеет следующие доверительные rраницы: Х-- о,98=4,1-0,98=3,12; x-+ o,98=4,I +о,98 = 5,о8. Таким образом, значения неизвестного параметра а, согласую щиеся с данными выборки, удовлетъоряют неравенству 3,12 <а< 5,08. Подчеркнем, что было бы ошибочным написать Р (3, \ 2 <а < 5,08) = 0,95. Действительно, так как а- постоянная величина , то либо она заклю чена в найденном интервале (тогда событие 3,12 < а < 5,08 досто верно и его вероятность равна единице), либо в нем не заключена (в этом случае событие 3,12 <а<5,08 невозможно и его вероят ность равна нулю). Другими словами, доверительную вероятность не следует связывать с оцениваемым параметром; она связана лишь с границами доверительного интервала, которые, как уже было ука зано, измен яются от выборки к выборке. Поясним смысл, который имеет заданная надежность. Надеж ность у=О,95 указывает, что если произведено достаточно большое число выборок, то 95% из них определяет такие доверительные интер валы, в которых параметр действительно заключен; лишь в 5% слу чаев он может выйти за границы доверительного интервала. 3 а м е ч а н и е 2. Если требуется оценить математическое ожида н"е с наперед заданной точностью б и надежностью у, то минималь ный объем выборки, который обеспечит эту точность, находят по формуле n = /2o?.j/j2 (следствие равенства б = ta/ Yn). § 16. Доверительные интервалы для оценки математического ожидания нормального распределе ния при неизвестном о Пусть кол ичественный признак Х генеральной совокупности распредел ен нормально, причем среднее квадратическое отклонение а неизвестно . Требуется оце нить неизвестное математическое ожидание а с помощью доверительных интервалов. Разумеется, невозможно вос пользоваться результатами предыдущего параграфа , в ко тором а предполагалось известным. Оказывается, что по данным выборки можно построить случайную величину (ее возможные значения будем обо- 216
• значать через t): Т=;;у� ' которая имеет распределение Стьюдента с k = п-1 сте пенями свободы (см . пояснение в конце параграфа) ; здесь Х -выборочная сред няя, S-«исправленное» среднее квадратическое отклонение, п-объем выборки. Плотность распределения Стьюдента S(t,п)=В п [1+п 12 1 ]-п/2' в r (n/2) где п = Уn (п -1) Г((п- 1)/2) • Мы видим, что распредел ение Стьюдента определяется параметром п-объемом выборки (или, что то же, чис лом степеней свободы k = п- 1) и не зависит от неиз вестных параметров а и а; эта особенность является его большим достоинством. Поскол ьку S (t. п) - четная функ ция от t, вероятность осуществлен ия неравенства 1.; ; v: \ <v определяется так (см. гл. § XI, 2, замечание): - 'v р(1�у�1<t'V) =2 ss(t'п)dt=i'. о . Заменив неравенство в круглых скобках равносильным ему двойным неравенством, получим Р(X-tvsfVn<а< х+tvSIVп ) =i'· Итак, пользуясь распределением Стьюдента , мы нашли дове рител�ньiй интервал (x- tvs !Vп, х + tvsfVn), по крывающий неизвестный параметр а с надежностью i'· Здесь случайные величины Х и Sr заменены несл учайными величинами х и s, найденным и по выборке. По таблице приложен ия 3 по заданным п и i' можно найти tv· Пример. Количественный признак Х генеральной совокупности распределен нормально. По выборке объема п = 16 найдены выбороч- ная средняя х 20,2 и «исправленное» среднее квадратнческое откло нение s = 0,8. Оценить неизвестное математическое ожидание при помощи доверительного интервала с надежностью 0,95. Ре w е н и е. Найдем t 'V· Пользуясь таблицей приложения 3, по у=О,95 и n=16 находим t v =2, 13. 217
Найдем доверительные границы: х- tvs l Yn=20,2-2,13-О,8/YI6= 19,774. х+ t vs f Yn =20,2 +2,13.0,8/ У16=20 ,626. Итак, с надежностью 0,95 неизвестный параметр а заключен в доверительном интервале 19,774 < а<20,626. 3амечание. Из предельных соотношений limВп= ") , lim(1+ 12 1 )-п/ 2 = e-t•/2, n-+а> r 2:rt n-+<1> n следует, что при неограниченном возрастании объема выборки п распредf'..ление Стьюдента стремится к нормальному. Поэтому прак тически при п > 30 можно вместо распределения Стьюдента пользо ваться нормальным распределением. Одн ако важно подчеркнуть, что д л я м алы х выб о рок (п < 30), в особенности для малых значений п, замена распредел ения нормальным привод ит к грубым ошибкам, а именно к неоправданному сужению довери тельного интервала, т. е . к повышению точности оценки. Например, если п = 5 и у-=0,99, то, пользуясь распре делением Стьюдента, найдем tv = 4,6, а используя функ цию Лапласа, найдем tv = 2,58, т. е. доверител ьный ин тервал в последнем случае окажется более узким, чем найденный по распределению Стьюдента. То обстоятел ьство, что распределение Стьюдента при малой выборке дает не впощiе определенные результаты (широкий доверител ьный интервал), вовсе не свидетел ьст вует о слабости метода Стьюдента, а объясняется тем, что малая выборка, разумеется , содержит малую информацию об интересующем нас признаке. · По я снение. Ранее было указано (см . гл . XII, § 14), что если Z - нормальная величина, причем М (Z) = О , а (Z) = 1, а V - независимая от Z величина, распределен ная по закону х.2 с k степенями свободы , то вел ичина z T-- - YV/k распредел ена по закону Стьюдента с k степенями свободы . Пусть количественный признак Х генеральной сово купности распределен нормально, причем М (Х) =а, а (Х) =а. Если из этой совокупности извлекать выборки объема п и по ним находить выборочные средние, то можно доказать, что выборочная средняя распредел ена нормально, причем (см. гл . Vl ll, § 9) М(Х2) =а, а(Х2) =a/Vn. 218
Тогда случайная вел ичина Z= Хв- а o! Yn также имеет нормальное распредел ение как линейная функция нормального аргумента Хв (см. гл. XII, § 10, замечание) , причем М (Z) =О, о (Z) = 1 . Доказано, что случайные величины Z и V=((п- 1) S2)/cr2 (***) независимы (S2 -исправленная выборочная дисперсия) и что величина V распределена по закону х2 с k = п-1 степенями свободы . Следовател ьно, подставив (**) и (***) в (*), получим величину Т = ((х8-а ) Vn)/S, которая распределена по закону Стьюдента с k = п - 1 тепенями свободы . § 17. Оценка исти нного значения измеряемой величины Пусть производится п независимых равноточных измерений некоторой физической величины, истинное зна чение а которой неизвестно. Будем рассмат ривать резуль таты отдел ьных измерений как случайные величины Х1, Х 2 , ••• , Хп . Эти величины независимы (измерения независимы), имеют од но и то же математическое ожида ние а (истинное значение измеряемой величины), од ина- . овые дисперсии cr2 (и змерения равноточны) и расп реде лены нормально (такое допущение подтверждается опы том) . Таким образом, все предп оложения , которые были · � �ланы при выводе доверительных интервалов в двух 1едыдущих параграфах, выполняются, и, следовател ьно, 1 вп раве использовать полученные в них формулы. ,J угими словами , истинное значение измеряемой вел и- . .шы можно оцени вать по среднему арифметическому результатов отдел ьных измерений при помощи довери тельных интервалов . Поскол ьку обычно cr неизвестно, следует пол�зоваться формулами, приведенными в § 16. Пример. По данным девяти независимых равноточных измерений физической величины найдены среднее арифметической результатов 219
отдельных измерений х= 42 ,319 и «исправленное» среднее квадрати ческое отклонение s = 5,0. Требуется оценить истинное значение измеряемой величины с надежностью у = О ,95. Реш ени е. Истинное значение измеряемой величины равно ее математическому ожиданию. Поэтому задача сводится к оценке мате матического ожидания (при неизвестном cr) при помощи доверитель ного интервала х- lyS/Vn< а < х+tyS/Vn, покрывающего а с заданной надежностью у = О ,95 . Пользуясь таблицей приложения 3, по у = 0,95 и п = 9 находим t"=2,31. Найдем точность оценки: t"(s/Jfn)=2 ,31.(5/'V9>=3,85. Найдем доверительные границы: х- t"s!vп=42,319-3,85 =38,469; х+lys/Уп =42 ,319+3,85 =46,169. Итак, с надежностью 0,95 истинное значение измеряемой вели чины заключено в доверительном интервале 38,469 <а< 46 , 169. § 18. Доверительные интервалы для оценки среднего квадратического отклонения а нормального распределения Пусть кол ичественный признак Х генеральной совокупности распредел ен нормально. Требуется оценить неизвестное генеральное среднее квадратическое откло нение а по «исправленному» выборочному средн ему квад ратическому отклонению s. Поставим перед собой задачу найти доверител ьные интервалы, покрывающие параметр cr с задан ной надежностью у. Потребуем, чтобы выполнялось соотношение P(lcr- sl< б)= y , или Р (s- б<а<s+б)=у. Для того чтобы можно было пользоваться готов� табл ице�. преобразуем двойное неравенство s-б <cr<s+ б в равносильное неравенство s(1-б/s)<(J< s(1+б/s). Положив б/s = q , получим s(1-q)<(J<s(1+q). 220
Остается найти q. С этой целью введем в рассмотрение случайную величину «Х И»: х=(S/o)Vп-1, где п-объем выборки. Как было указано [см. § 16, пояснение, соотноше ние (***)], величина 82 (п -1)/а2 распределена по закону х2 с п - 1 степенями свободы, поэтому квадратный корень из нее обозначают через Х· Плотность распределения х имеет вид (см. пояснение в конце параграфа) xn-2e-'Y!/2 R(х. п)= (1)• 2<п-3)/2 r п 2 Эrо распределение не зависит от оцениваемого параметра о, а зависит лишь от объема выборки п. Преобразуем неравенство (*) так, чтобы оно приняло видх1<х<х2 • Вероятность этого неравенства (см . гл . XI, § 2) равна заданной вероятности у. т. е. х. SR<х. п)dx=v. Х1 Предполагая , что q < 1, перепишем неравенство (*) так : 1 . 1 1 _- S- (I _ +_ q _). <а<S(l-q)" Умножив все члены неравенства на S Vп- 1, получим -rn=r svn=r vn=r l+q < <1 < 1-q • или vп=-r vп=т l+q <х< 1-q • Вероятн ость того, что это неравенство, а следовательно, и равносильное ему неравенство (*) будет осуществлено, равна Vn- !/(1-q) S R(x. n)dx=v. Vп- 1/(1+q) 221
Из этого уравнения можно по заданным п и i' найти q. Практически для отыскания q пользуются таблицей при· ложения 4. Вычислив по выборке s и найдя по таблице q , полу чим искомый доверительный интервал (*) , покрывающий <J с заданной надежностью у, т. е. интервал s(1-q)<(J<s(1+q). Пример 1. I(оличественный признак Х генеральной совокупности распределен нормально. По выборке объема п = 25 найдено «Исправ леннсе:о среднее квадратическое отклонение s = 0,8. Найти доверитель ный интервал, покрывающи й генеральное среднее квадратическое отклонение о с надежностью 0,95. Решен·и е . По таблице приложения 4 по данным у=О,95 и n=25 найдем q=0,32. Искомый доверительный интервал (*) таков: 0,8 (1-0,32) <а<0,8 (1+О,32), или 0,544 <о< 1,056. 3 а меч ани е. Выше предполагалось, что q < 1. Если q > 1, то неравенство (>1<) примет вид (учитывая, что о > О) О<о < s(l+q), или (после преобразований, аналогичных случаю q < 1) Vп-1/(l+q><х<оо. Следовательно, значения q > 1 могут быть найдены из уравнения ф � R(х. п)dx=y. Yii=Т/O+q> Практически для отыскания значений q > 1, соответствующиж различным заданным п и у, пользуются таблицей приложения 4. Пример 2. I(оличественный признак Х генеральной совокупноств распределен нормально. По выборке объема n= 10 найдено «исправ ленное» среднее квадратическое отклонение s=0,16. Найти довери тельный интервал, покрывающий генеральное среднее квадратическое отклонение о с надежностью 0,999. Р е ш е н и е. По таблице приложения 4 по данным у=0,999 и n= 10 найдем q=1,80 (q > 1). Искомый доверительный интервал таков: о < (J <0,16(1+1,80), или о<(J < 0,448. П о я с н е н и е. Покажем, что плотность распределе ния х имеет вид (**) . Если случайная вел ичина Х распределена по закон у х.2 с k = п-1 степенями свободы, то ее плотность рас пределен ия (см. гл . XII, § 13) x<k/2)- 1 е-х/2 f(х)= 2kf2r(�)' 222
шш после подстановки k = п - 1 х<п-э)/2 е -х/1 f(х)= (1)• 2<n-1)/2г n 2 Воспользуемся формулой (см. гл. XII, § 1 0) g(у)=f[Ф(у)]1Ф'(у)\. чтобы найти распределение функции x =q> (X) ='VX(х> О). Отсюда обратная функция х=Ф(х)=х. 2 и Ф'<х>=2х. Так как х > О, то 1 Ф' (Х) 1 =2х, следовательно, · ( 2)<п -э)/2 е -'1.8/2 g (x) =f[Ф (x)]·IФ' <x> I = < х >t (n-t)·2х. 2п-1 sr __ . 2 Выполнив элементарные преобразования и изменив обозначения (g (х,), заменим на R (х. п)), окончательно получим R(х. п)= (1)• 2<п -3)/2 r n 2 § t 9. Оценка точности измерений В теории ошибок принято точность измерений (точность прибора) характеризовать с помощью среднего квадратического откJюнен ия а случайных ошибок изме рений . Для оценки а используют «исправленно�» среднее квадратическое отклонение s. Поскольку обычно резуль- . таты измерений взаимно независимы, имеют одно и то же математическое ожидание (истинное значен ие измеряемой величины) и од инаковую дисперсию (в случае равноточ ных измерений), то теория, изложенная в предыдущем параграфе, .применима для оценки точности измерен ий. Пример. По 15 равноточным измерениям найдено «исправленное• среднее квадратическое отклонение s = О , 12. Найти точность измере ний с надежностью 0,99. Реш е н и е. Точность измерений хара1{теризуется средним квад ратическим отклонением cr случайных ошибок, поэтому задача сво дится к отысканию доверительного интервала (*) , покрывающего cr с заданной надежностью 0,99 (см. § 18). 223
По таблице приложения 4 по у=О,99 и n= 15 найдем q =0,73. Искомый доверительный интервал 0,12 (1-0 ,73) <О'<0,12 ( l+0,73), или 0,03 <О'<0,21. § 20. Оценка вероятности (биномиального распределения) по относительной частоте Пусть производятся независимые испытания с неизвестной вероятностью р появления события А в каждом испытании. Требуется оценить неизвестную вероятность р по относител ьной частоте, т. е. надо найти ее точечную и интервальную оцен ки. А. Точеч ная оценка . В качестве точечной оценки не известной вероятности р принимают относител ьную частоту W=m/n, где т-число появлений события А; п-число испыта ний*>. Эта оценка несмещенная, т. е . ее математическое ожи дание равно оцениваемой вероятности . Действительно, учитывая, что М (т) =пр (см. гл . VII, § 5), получим М(W)=М[m/n]=М(m)/n=np/n=р. Найдем дисперсию оцен ки, приняв во внимание, что D(т)=npq (см. гл. VII,§6): D(W)=D[т/п]=D(m)/n2= npq/n2 = pq/n. Отсюда среднее квадратическое отклонение 1 aw= VD(W)=Vpq/n. Б. Интервал ьная оценка. Найдем доверительный ин тервал для оценки вероятности по относител ьной частоте. Напомним, что ранее (см . гл . XII, § 6) была выведена формула, позволяющая найти вероятность того, что аб солютная вел ичина отклонения не превысит положитель ного числа б : P(\X-a j < б) =2Ф (б/а), *> Напомним, что случайные величины обозначают прописными, а их возможные значения-строчными буквами. В различных опытах чис.110 т появлений события будет изменяться и поэтому является сл учайной величиной М . Однако, поскольку через М уже обозначено математическое ожидание, мы сохраним для случайного числа появ лений события обозначение т. 224
где Х -нормальная случайная величина с математи ческим ожиданием М (Х) = а . Если п достаточно вел ико и вероятность р не очень близка к нулю и к еди нице, то можно считать, что от носительная частота распределена приближенно нор мально, причем, как показано в п. А, М (W) = р. Таким образом, заменив в соотношении (*) случайную величину Х и ее математическое ожидание а соответ ственно случайной величиной W и ее математическим ожиданием р, получим приближенное (так как относи тельная частота расп ределена приближенно нормально) равенство Р(1W-pJ<б)=2Ф(б/(Jw). Присту пим к построению доверительного интервала (р1, р2), который с надежностью у покрывает оцениваемый параметр р, для чего используем рассуждения, с помощью которых был построен доверительный интервал в гл . XVJ. § 15. Потребуем, чтобы с надежностью v выполнялось соотношение (**): Р ( 1W-р 1 <б)=2Ф (б/(J) =у. Заменив (Jw через Vpq/n (см. п. А}, получим Р(/ W-p/< б)= 2Ф (б Vfi/VIЩ) =2Ф(t) = y, где t=бVti/Vp q . Отсюда и, следовател ьно, P(I W-p l < tV pq/n) =2Ф(t) =y. Таким образом, с надежностью у выполняется нера венство (чтобы получить рабочую формулу, случайную вел ичину W заменим неслучайной наблюдаемой относи тельной частотой w и подставим 1-р вместо q) : \w- p l < tVp(1-p)fn . Учитывая, что вероятность р неизвестна, решим это неравенство относительно р. Допустим, что w > р. Тогда w-p < tVр(1-р)/п. 8-2 10 225
Обе части неравенства положительны; возведя их в квад рат, получим равносильное квадратное неравенство от носител ьно р: [(t2;п)+l)]p2 - 2 [w +(t=/n)] p+w2 <О. Дискриминант трехчлена положител ьный, корни действительные и различные: поэтому его меньший корень п [/2 Р1 =,2+ п w+2n-t больший корень п [/2 Р2=12+п w+2п +t Итак, искомый доверительный интервал р1 < р < р1, где р1 и р1 находят по формулам (***) н (****) . При выводе мы предположили, что w > р; тот же ре зультат получим при w < р. Пример. Производят независимые испытания с одинаковой, но неизвестной вероятностью р появления события А в каждом испыта нии. Найти доверительный интервал для оценки вероятности р с на дежностью 0,95, если в 80 испытаниях событие А появилось 16 раз. Решение. По условию, n=80, m =l6, у=О,95. Найдем от носительную частоту появлен ия события А: w=m/n = 16/80 =0,2. Найдем t из соотношения Ф (t)=y/2 = 0,95/2 =0,475; по таблице функции Лапласа (см. приложение 2) находим t = 1,96 . Подставив n=80, w=0,2, t= 1,96 в формулы (***) и (****) , получим соответственно р1 =0, 128, р2 =0,299: Итак, искомый доверительный интервал 0,128 < р < 0,299. 3 а мечани е l. При больших значениях п (порядка сотен) слагаемые t2/(2n) и (t/(2n))2 очень малы и множитель n/(t1+ n) :: ::. . l, поэтому можно принять в качестве приближенных границ довери тельного интервала p1 =w-t Jfw(l-w)/n и p2 =w +t Yw(l-w)/n. 3 а мечани е 2. Чтобы избежать расчетов концов доверитель ных интервалов, можно использовать табл. 28 книги: Янк о Я. Математико-статистические таблицы. М. , Госстатиздат, 1961. § 21 . Метод моментов для точеч ной оценки параметров расп ределения Можно доказать, что начальные и центральные емпирические моменты являются состоятел ьными оценками соответственно начальных и центральных теоретических 226
моментов того же порядка . На этом основан метод момен тов, предл оженный К. Пирсоном. Достоинство метода сравнител ьная его простота . Метод моментов точечной оценки неизвестных параметров заданного распределения состоит в при равнивании теоретических моментов рас сматриваемого расп ределения соответствующим эмпириче ским моментам того же порядка . А. Оценка одного п араметра. Пусть задан вид плот ности распределения f (х, 0) , определяемой одним неиз вестным параметром 0 . Требуется найти точеч ную оценку параметра е. Для оценки одного параметрадостаточноиметь одн о у равнение относител ьно этого параметра. Следу я методу моментов , при равняем, например, начальный тео ретический момент первого порядка начальному ·эмпири ческому моменту первого порядка: '' i = М1 • Учитывая, что v1= М(Х)(см. гл.VIII,§ 10),М1=х0(см. гл. XVII, § 2), получим М(Х)=хв. Математическое ожидание М (Х), как видно из соотно шения QO М(Х)= � xf(x; 0)dx=q>(0), -со есть функция от 0, поэтому (*) можно рассматривать как уравнение с одним неизвестным е. Решив это уравнение относительно параметра 0 , тем самым найдем его точеч ную оценку 0*, которая является функцией от выбороч ной средней, следовательно, и от вариант выборки: 0* = 'Ф(Х1, Х1, •••, Хп)• _ Пример t. Найти методом моментов по выборке Xi, х2 , •• •, х" точечную оценку неизвестного параметра А. показательного распреде ления, плотность распределения которого f (х) =Л.е-hх (х �О). Решение. Приравняем начальный теоретический момент пер вого порядка начальному эмпирическому моменту первого порядка: v1 =M1• Учитывая, что v1 = M (Х), М1 =Х8, получим М (Х)=хв. Приняв во внимание, что математическое ожидание покаэатеJiьного распределения равно 1/Л (см. гл. XIII, § 3), имеем 1/Л=хв. S!27
Отсюда Л=1/х8• Итак, искомая точечная оценка параметра А. показательного рас пределения равна величине, обратной выборочной средней: Л*= 1/i8. Б. Оценка двух параметров. Пусть задан вид плотности распределен ия f (х; 01 , 02), определяемой неизвестными параметрами 01 и 02 • Для отыскания д в у х п ара метров необходимы два уравнен ия относительно этих параметров . Следу я методу моментов, приравняем, например, началь ный теоретический момент первого порядка начальному эмпирическому момецту первого порядка и центральный теоретический момент второго порядка центр альному эм пирическому моменту второго порядка : "'1=мl. μ2=т2. Учитывая, что v1=M(X), μ2=D(X) (см. гл . Vlll, § 10), М1=Х8, m2=Dв (см. гл. XVII, § 2), получим М(Х)=хв, } (**) D(X)=D8• Математическое ожидание и дисперсия есть функции от 01 и 02 , поэтому (**) можно рассматривать как систему двух уравнений с двумя неизвестными 01 и 02 • Решив эту систему относительно неизвестных параметров, тем самым получим их точечные оценки 0; и 0;. Эти оценки явл яются функциями от вариант выборки: 0�='Ф1(Хн Х2, • ••, Хп), О;=-ф1(Х1, Х11, •••, Хп)· Пример 2. Найти метод.ом моментов по выборке х1, х2 , ••• , Хп точечные оценки неизвестных параметров а и о нормального рас пределения Р е ш е н и е . Приравняем начальные теоретические и эмпиричес кие моменты первого порядка, а также центральные и эмпири ческие моменты второго порядка: V1=M1, f.Ls =mi. Учитывая, что v1 =M(X), f.Lt=D(X), М1 Х8 , m11 = D8, получим М(Х)=х;,, D(Х)=D8• 228
Приняв во внимание, что математическое ожидание нормального рас пределения равно параметру а, дисперсия равна о2 (см. rл. XII, § 2), имеем: а=х8, Итак , искомые точечные оценки параметров нормального рас пределения: а• =х8, о• = YD8• Заме ч а ние 1. Дл я оценок неизвестных параметров можно приравнивать не только сами моменты, но и функции от моментов. В частности , этим путем получают состоятельные оценки характе ристик распределений, которые являются функциями теоретических моментов . Например, асимметрия теоретического распределения (см.гл.ХП,§9) есть функция от це:нтральных моментов второго и третьего порядков. Заменив эти теоретические моменты соответствующими эмпирическими моментами, получим точечную оценку асимметрии As=m3/(Уm2)3• Замечание 2. Учитывая, что Уm2 =УD8 =<J8 ,последнюю формулу можно записать в виде As =malo: . Далее эта оценка будет принята в ка честве определения асиммет рии эмпирического распределения (см. гл . XVII, § 9). § 22. Метод наибопьшеrо правдоподобия К роме метода моментов, который изложен в пре дыду щем параграфе, существуют и другие методы точеч ной оценки неизвестных параметров распределени я. К ним относится метод наибольшего правдоподобия , предл ожен:. . ный Р. Фишером. А. Дискретн ые СJ J уч айные величи ны. Пусть Х-диск ретная случайная величина, которая в результате п ис пытаний приняла значения х1' х2, • • • , хп . Допустим, что вид закона распредел ения вел ичины Х задан, но неиз вестен параметр 0, кото рым определяется этот закон. Требуется найти его точечную оцен ку . Обозначим вероятность того, что в результате испы тания вел ичина Х примет значение x i (i = 1, 2, ..., п), через р (xi; 0). Функцией правдоподобия дискретной случайной вел и чины Х называют функцию аргумента 0: L(Х1, Х2, •••, хп; 0)=р(х1; 0)р(х2; 0) . • . р(хп; 0). гдех1,х2,•••,х п -фиксированные числа. 229
В качестве точечной оцен ки параметра 0 принимают та кое его значение 0* = 0*(х1, х2, • • • , хп ) , при котором фун кцщ1. правдоподоб ия достигает макси му ма . Оценку 0* на зывают оценкой наибол ьшего правдоподобия . Функции L и ln L дост игают максимума при од ном и том же значении 0, поэтому вместо отыскания максимума функции L ищут (что удобнее) максимум функции ln L. Логарифмическ ой функц ией правдоподобия называют функцию ln L. Как известно, точку максимума функции ln L аргумента 0 можно искать, например, так: 1) найти производную d��L ; 2) приравнять производн ую нулю и найти критическую точку - корень полученного уравнения (его называют уравнением правдоподобия) ; d2lnL 3) найти вто рую производную dег- ; есл и вторая производная при 0 = 0* отрицател ьна, то 0* -точка мак симума. Найденную точку максимума 0* принимают в качестве оценки наибольшего правдоподоб ия параметра 0. Метод наибольшего правдоподобия имеет ряд досто инств: оценки наибольшего правдоподобия, вообще говоря , состоятел ьны (но они могут быть смещенными), распреде лены асимптотически нормально (при больших значен иях п приближенно нормальны) и имеют наименьшую дисперсию по сравнению с другими асимптотически нормальными оценками ; есл и для оцениваемого параметра 0 существует эффективная оценка 0* , то уравнение правдоподобия имеет единственное решение 0*; этот метод наиболее полно ис пользует данные выборки об оцен иваемом параметре, поэтому он особенно полезен в случае малых выборок. Недостаток метода состоит в том, что он часто требует сложных вычислен ий. Замечание 1 . Функция правдоподобия-функция от аргу мента 0; оценка наибольшего правдоподобия-функция от независи мых аргументов х1, Х2, • ••, Хп. Замечание 2. Оценка наибольшего правдоподобия не всегда совпадает с оценкой, найденной методом моментов. Пример 1. Найти методом наибольшего правдоподобия оценку параметра Л распределения Пуассона Дхiе-'А Рт (Х=хi) ! - Xj где т-число произведенных испытаний; Хi -число появлений собы тия в i-м (i = 1 , 2, •.., n} опыте (опыт состоит из т испытаний). 230
Решение. Составим функцию правдоподсбия, учитывая, что 0=Л: L=Р(х1; Л)р(х2; Л) ... р(хп; Л)= л.х• .е -Л. л.х•.е-Л. лхп.е-л. л�х; . е-пл. - X1J X2f Хпf X1!X2f ..• Хпf • Найдем логарифмическую функцию правдоподобия: lnL=(�х;) lnЛ-пЛ-ln(х1!х2! ... Хпl). Найдем первую производную по Л: dlnL � х; -;п:- =- л - -п. Напишем уравнение правдоподобия, для чего приравняем пер вую производную нулю: (� х;/Л) -n=О. Найдем критическую то чку, для чего решим полученное уравне ние относительно Л: Л=� x;/n =x8• Найдем вторую производную по Л: d2lnL �Xi df:Г= --хг Легко видеть, что при Л=Хв вторая производная отрицательна; следовательно, Л=Хв -точка максимума и, значит, в качестве оценки наибольшого правдоподобия параметра Л распределения Пуассона надо принять выборочную среднюю д•=х8 • Пример 2. Найти методом наибольшего правдоподобия оценку па раметра р биномиального распределения Рп(k)=C�k(l-p)n -k, если в п1 независимых испытаниях событие А появилось х1 = m1 раз и в п2 независимых испытаниях событие А появилось х2 = m2 раз. Решение. Составим функцию правдоподобия, учитывая, что 0=р: L=P (т )Р (m )=Cm1cm•pm1+m2 (t -p)[(n1 +n1)-(m1+m1))0 п1 1п1 2 п1 п. Найдем логарифмическую функцию правдоподобия: ln L=ln (с:.•с::)+ (m1 +m2) ln P+Hn�+n2) -(m1 +m2)] ln (l -p). Найдем первую производную по р: dInL rrti+т2 (n1+п2)-(m1+m2) dp р l-p Напишем уравнение производную нулю: правдоподобия, дJIЯ чего приравняем первую m1+m2 р (п1 +n2) -(m1 +m2) l-p о. 231
Найдем критическую точку, для чего решим полученное урав нение относительно р: р=(m1+m2)/(n1+n2). Найдем вторую производную по р: d21пL = - m1 +m2 + (n1+n2) -(m1+m2) dp2 р2 ( 1-р)2 Легко убедиться, что при р = (m1 + m2)/(n1 + n2) вторая произ водная отрицательна; следовательно, р = (m1+ m2)/(n1 + n2) -точка максимума и, значит, ее надо принять в качестве оценки наиболь шего правдоподобия неизвестной вероятности р биномиального рас пределения: р* = (m1 +m2)/(n1 +п2). Б. Непрерывные СJiучайные величины. Пусть Х - не прерывная случайная величина, которая в ре зультате п испытаний приняла значения Х1 , х2 ,•••,Хп. Допустим, что вид плотности расп редел ения f (х) зада н, но не известе н параметр 0, которым определ яется эта функция. Функцией правдоподобия непрерывной случа йной вел и чины Х называют функцию аргумента 0: L(xl, Х2, ..., хп; 0)=f(х1; 0)f(х2; 0) ...f(хп; 0), где х1, х 2 , • • • , хп -Фиксированные числа. Оценку наибольшего правдоподоб ия неизвестного па раметра распределения непрерывной случайной вел ичины ищут так же, как в случае дискретной величины. Пример 3. Найти методом наибольшего правдоподобия оценку параметра Л показательного распределения f(x)='J. . e-'i.x (О<х<оо), если в результате п испытаний случайная величина Х, распределен ная по показательному закону, приняла значения х1, х2 , •••, Хп. Реше н и е. Составим функцию правдоподобия, учитывая , что 6=Л: L =f(xi; Л) f(х2; 'J. . ) ••. f(хп; Л) = (Ле-'i.х1) (ле -дх•) . . . (ле -'i.х1) . 232 Отсюда Найдем логарифмическую функцию правдоподобия: lnL=nlnЛ-Л�Х/. Найдем первую производную по Л: dlnLп� {JГ"=л- � Х/.
Напишем уравнение правдоподобия, для чего приравняем первую производную нулю: (п/Л) - �Xj=O. Найдем критическую точку, дл я чего решим полученное уравне ние относительно Л: 'Л=n/�x i = t/(�xi /n) = t/"Хв. Найдем вторую производную по Л: d2lnL п �= -л2· Легко видеть , что при Л= 1JX0 вторая производная отрицательна; следовательно, Л= 1/°Хв-точка максимума и, значит, в качестве оценки наибольшего правдоподобия параметра Л. показательного рас пределения надо принять величину, обратную выборочной средней: Л*=l/хв. 3 а м е ч а н и е. Если плотность распределения f (х) непрерывной случайной величины Х определяется двумя неизвестными парамет рами 01 и 02 , то функция правдоподобия является функцией двух независимых аргум�нтов 01 и 02 : L=f(х1; 81, 82>f(х2; 01, 82) • .• f (хп; 81, 02), где х1, х2, •••, Хп -наблюдавшиеся значения Х. Далее находят ло гарифмическую функцию правдоподобия и для отыскания ее макси мума составляют и решают систему Пример 4. Найти методом наибольшего правдоподобия оценки параметров а и о нормального распределения 1 f(х) __ __ е-<х-а)"/ 2 а•, = (J Jf2:rt если в результаге п испытаний величина Х приняла значения Х1, Х2, ••• ' Хп• Решение. Составим функцию правдоподобия, учитывая, что 01=а и 02=о: Отсюда
Найдем лога рифмическую функцию правдоподобия: J � (Xj-a)2 lnL=- nlna+ln ( Y2n)n 2cr2 . • Найдем частные производные по а и по а: дlnL �х;-па . дlnL п �(х;-а)2 -- -а; ;- = cr2 ' if(J=-а+ аз • Приравняв частные производные нулю и решив полученную си стему двух уравнений относительно а и cr2, получим: а=�х;/n =хв; cr2 = (�(xi - Xo)2)/n =Dв. Итак , искомые оценки наибольшего правдоподобия: а* =х8 ; а* = YD8• Заметим, что первая оценка несмещенная, а вторая сме щен ная. § 23. Другие характер истики вариационного ряда Кроме выборочной средней и выборочной диспер сии применяются и другие характеристики вари ационного ряда . Укажем главные из них. Модой М0 называют вари анту , которая имеет наиболь шую частоту. Например, для ряда ва ри анта . .J479 частота . . . .51206 мода равна 7. Медианой те называют варианту , которая дел ит ва риационный ряд на две части , равные по числу вариант. Если число вариант нечетно, т. е. п = 2k+ 1, то те = Хн1; при четном п = 2k медиана те = (xk +Хн1)/2. Например, для ряда 2 З 5 6 7 медиана равна 5; для ряда 2 3 5 6 7 9 медиана равна (5+6)/2=5,5. Размахом варьирования R называют разность между наибольшей и наименьшей вариантами : R = Xmax-Xmtn• Например, для ряда 1 З 4 5 6 10 размах равен 10-1 =9. Размах является просте йшей характеристикой рассея ния ва риационного ряда . Средн им абсолютным отклонением 0 называют среднее арифметическое абсолютных отклонений : 234
Например, дл я ряда имеем: Х;1 п,4 3616 1051 - = 4 . 1+10·3+5·6+ 1·16 = 80 = 4· Хв 4+ 10+5+ 1 20' 0-4 · \I-4l+!O·l3-4\+5·\6-4\+I·l16-4l_22 - 20 - ' . Среднее абсолютное отклонение служит для характерис тики рассеяния вариационного ряда. Коэффициентом вариации V назq�вают выраженное в процентах отношение выборочного среднего квадратичес кого отклонения к выборочной средн ей: V= G8/X8 • 100%. Коэффициент вариации служит для сравнения величин рассеяния по отношению к выборочной средней двух вариационных рядов : тот из рядов имеет большее рас сеяние по отношению к выборочной сред ней, у которого коэффициент ва риации больше . Коэффициент вариации безразмерная вел ичина, поэтому он пригоден для срав нения рассеяний вариационных рядов, варианты которых имеют различную размерность, например если варианты одн ого ряда выражены в сантиметрах , а другого -в грам мах . 3 а мечани е. Выше предполагалось, что вариационный ряд составлен по данным выборки, поэтому все описанные характерис тики называют выборочными; если ва риационный ряд составлен по данным генеральной совокупности, то характеристики называют гене ральными. Задачи 1 1. Найти групповые средние совокупности, состоящей из двух групп: первая группа х; О,1 0,4 0,6 п; 3 2 5 вторая группа • •х;О,10,30,4 п; 1О4 6 Отв. х1 =0,41 ; х2 =0,23. 2. Найти общую среднюю по данным задачи 1 двумя способами: а) объединить обе группы в одну совокупность; б) использовать най денные в задаче 1 групповые средние. Отв. х= 0,29. 235
3. Дано распределение статистической совокупности: Xil п;6 4 11 5 3 Убедиться, что сумма произведений отклонений на соответствующие частоты равна нулю. 4. Дано распределение статистической совокупности: Х/4 71015 п,ю15205 Найти дисперсию совокупности: а) исходя из определения диспер сии; б) пользуясь формулой D=x2 -(x]2. Отв. D =9,84. 5. Найти внутригрупповую, межгрупповую и общую дисперсии совокупности, состоящей из трех групп: первая группа х;1 28 п;30155 втораягруппа•• •Х/..1 6 п;1015 третья группа х;38 ni205 Отв. Dвнrр =4,6; Dмежrр = 1; Dобщ =5,6. 6. Найти внутригрупповую, межгрупповую и общую дисперсии совокупности, состоящей из двух групп: первая группа Х/27 ni64 вто рая группа х127 п;28 Отв. Dвнrp = 5;-Dмeжrp =I; Dобщ =6. 7. Найти выборочную и исправленную дисперсии вариационного ряда, составленного по данным выборкам: варианта • . . 12589 частота . • • 34643 Отв: u: =8,4; s2 =8,84 . В задачах 8-9 даны среднее квадратическое отклонение, выбо рочная средняя и объем выборки нормально распределенного приз нака. Найти доверительные интервалы дл я оценки неизвестного мате матического ожидания с заданной надежностью. 8. U=2, х8 = 5,40, n=10, у=О,95. Отв. 4,16 < а < 6,64. 9. U=3, х8 =20,12, n=25, у=О,99. Отв. 18,57 < а<21,67. 10. Найти минимальный объем выборки, при котором с надеж ностью 0,95 точность оценки математического ожидания нормально распределенного при.знака по выборочной средней будет равна 0,2, если среднее квадратнческое отклонение равно 2. Указание. См. замечание 2,§15. Отв. n=385. В задачах 11-12 даны «исправленное» среднее квадратическое отклонение, выборочная средняя и. объем малой выборки нормально распределенного признака. Найти, пользуясь распределением Стью- 236
дента, доверительные интервалы для оценки неизвестного математи ческого ожидания с заданной надежностью. 11. s=l,5, х8 =16,8, n=l2, у=О,95. Отв. 15,85 < а<17,75. 12. s=2,4, Хв = 14,2, n=9, у=О,99. Отв. 11,512 <а< 16,888. 13. По данным 16 независимых равноточных измерений физичес- кой величины найдены х8 =23, 161 и s = 0,400. Требуется оценить истинное значение а измеряемой величины и точность измерений о с надежностью 0,95. Отв. 22,948 <а< 23,374; 0,224 <о<0,576. 14. Найти доверительный интервал для оценки неизвестной ве роятности р биномиального распределения с надежностью 0,95, если в 60 испытаниях событие появилось 18 раз. Отв. 0,200 < р < 0,424. 15. Найти методом моментов точечную оценку эксцесса E1i = = m4/o4-3 теоретического расп ределения. Отв. ek = т4/о� -3. 16. Найти методом моментов точечные оценки параметров а и /3 гамма-распределения f(x)=j3 a.+ir�a+l) xae -x flJ(a>-1,/3>0,х�О). Указани е. Сделать подстановку y=xf/3 и, используя гамма .., функцию Г(n)=Sxп-1 e-x dx, найти сначала М(Х) =(а.+ 1) /3, о D (Х) =(а+ 1)/32, а затем приравнять М (Х) =х8, D (X)=D8• Отв. а.* = (x:/D8)- 1; /3* = D8/X8• 17. Найти методом наибольшего правдоподобия по выборке х1, х2, •••, Хп точечную оценку неизвестного параметра /3 гамма-рас пределения, если параметр а известен. Указани е. Использовать плотность гамма-распределения. приведенную в задаче 16. Отв. /3* =Х8/(а.+ 1). Глава семнадцатая МЕТОДЫ РАСЧЕТА СВОДНЫХ ХАРАКТЕРИСТИК ВЫБОРК И § 1 . Условные варианты Предположим, что варианты выборки располо жены в возрастающем порядке, т. е . в виде вариацион ного ряда . Равноотстоящими называют варианты, которые обра вуют арифметическую прогрессию с разностью h. 237
Условными называют варианты, оп ределяемые равен- ством U;= (X;-C)/h, где С-ложный нуль (новое начало отсчета) ; h-шаг, т. е. разность между любыми двумя соседн ими первона чальными вариантами (новая единица масштаба) . Упрощенные методы расчета сводных характеристик выборки основаны на замене первоначальных вариант условнымР. Покажем , что есл и вариационный ряд состоит из равно отстоящих вариант с шагом h, то условные варианты есть целые ч и с л а. Действител ьно, выберем в качестве ложного нуля произвольную варианту, например хт. Тогда . Xf-Xm x1+(i- l)h-[x1+(m -l) h] . U;= h= h = t-m. Так как i и т -целые числа, то их разность i-m = = и;-также целое число. 3 а меч ани е l. В качестве ложного нуля можно принять лю бую варианту. Максимальная простота вычислений достигается, если выбрать в качестве ложного нуля варианту, которая расположена примерно в середине вариационного ряда (часто такая варианта имеет наибольшую частоту). З а меча н и е 2. Варианте, которая принята в качестве лож ного нуля, соответствует условная варианта, равная нулю. Пример. Найти условные ва рианты статистического распределения: варианты • • • 23,6 28,6 33,6 38,6 43,6 частоты . . •5 20 50 15 10 Решение. Выберем в качестве ложного нуля варианту 33,6 (зта варианта расположена в середине вариационного ряда). Найдем war: h=28,6-23,6 =5. Найдем условную ва рианту: Щ=(Х1 -С)/h =(23,6 -33 ,6)/5 = - 2. Аналогично получим: и2 = - 1, и3 =О, и4 = 1, и5 = 2. Мы видим, 11 1Т о условные варианты - небо.1 1 ьшие целые числа. Разумеется, опе рировать с ними проще, чем с первоначальными вариантами. § 2. Обычные, начальные и центральные зм пирические моменты Для вычисления сводн ых характеристик выборки удобно пользоваться эмп ириче�кими моментами, оп ре.де ления которых аналогичны определениям соответствую· 238
щих теоретических моментов (см. гл . VIII, § 10) . В от личие от теоретических эм пирические моменты вычисляют по данным наблюдений. , Обычным эмп ирическим моментом порядка k называют среднее значение k-x степеней разностей Х; -С: Mk = (�п; (х; - С)k)/п, где Х;-наблюдаемая ва рианта, n;-частота варианты, п =�п;- объем выборки, С-произвольное постоянное число (ложный нуль). Начальным эмпирическим моментом порядка k назы вают обычный момент порядка k при С = О Mk = (�n;xf)/п . В частности, М1 = (�n;Х;)/п = Х8, т. е. начальный эмпирический момент первого порядка равен выборочной сред ней . Центральным эмп ирическим моментом порядка k на- зывают обычный момент порядка k при С = Х8 тk = (�n; (х; - х:)k)/п . В частности , т. е . центральный эмпирический момент второго порядка равен выборочной дисперсии. Легко выразить центральные моменты через обычные (рекомендуем читателю сделать это самостоятел ьно) : та = м;-(ма2 , (**) т3 =М;-ЗМ�М�+2(Ма3, } т, = м�-4м;м� + бм; (М�)2-з(Ма". <***> § 3. Условн ые эмпирические момен ты. Отыскание цен тральных момен тов по условным Вычисление центральных моментов требует до- вольно громоздких вычислен ий. Ч тобы упростить рас четы, заменяют первоначальные варианты условными . Условным эмпирическим момент ом порядка k называ ют началJ,ный момент порядка k, вычисленный для ус- 239
ловных вариант: Отсюда � (x; -C)k MZ=� n;uf = � п; -h - n п Таким образом, дл я того чтобы найти выборочную сред нюю, достаточно вычислить условный момент первого порядка, умножить его на h и к результату прибавить ложны\% нуль С. Выразим обычные моменты через условные : Отсюда М* l � n; (x;-C)k Mk k=hk п = м· Mk=Mkhk. Таким образом, ){ЛЯ того чтобы найти обычный момент порядка k, достаточно условный момент того же порядка умножить на h k . Найдя же обычные моменты, легко найти централь ные моменты по равенствам (**) и (***) предыдущего параграфа. В итоге получим удобные для вычислен ий формулы, выражающие центральные моменты через ус ловные: т 2 = (M;-(M;)2]h2, (**) тз = [М;-зм�м;+2(М�)3] hз, } m4 = [М: -4м;м;+6М;(М�)2-З (M;)4)h4• (***) В частности, в силу (**) и соотношения (*) предыду щего параграфа получим формулу для вычислен ия выбо рочной дисперсии по условным моментам первого и вто рого порядков Техника вычислений центральных моментов по услов ным описана далее. 240 .
§ 4. Метод произведен ий для вычисле н ия выбороч н ы х средней и дис персии Метод произведений дает удобный способ вычис лен ия условных моментов различных порядков вариаци онного ряда с равноотстоящими вариантами . Зная же условные моменты, нетрудно найти интересующие нас начальные и центральные эмпирические моменты. В част ности, методом произведен ий удобно вычислять выбороч ную среднюю и выборочную дисперсию. Целесообразно пользоваться расчетной табл ицей , которая составляется та к: 1) в первый столбец таблицы записывают выборочные (первоначальные) варианты, располагая их в возрастаю щем порядке; 2) во второй столбец записывают частоты вариант; скл адывают все частоты и их сумму (объем выборки п) помещают в нижнюю клетку столбца; 3) в третий столбец зап исывают условные варианты ui = (xi -C)/h, причем в качестве ложного нуля С выби рают варианту , которая расположеt�а примерно в сере дине вариационного ряда, и полагают h равным разности между любыми двумя соседн ими вариантами ; практически же третий столбец заполняется так: в клетке ст роки, содержащей выбранный ложный нуль, пишут О; в клет ках над нулем пишут последовател ьно -1, -2, -3 и т.д., а поднулем-1,2,3 и т.д.; 4) умножают частоты на условные варианты и запи сывают их произвед ения niui в четвертый столбец; сло жив все полученные числа, их сумму � niui помещают в нижнюю клетку столбца; 5) умножают частоты на квадраты условных ва риант и зап исывают их произведения n;u� в пятый стол�ец; сложив все полученные числа, их сумму � niu' поме щают в нижнюю клетку столбца; 6) умножают частоты на квадраты условных вариант, увеличенных каждая на еди ницу, и зап исывают произве дения ni (и; + 1 )2 в шестой контрольный столбец; сложив все полученные числа, их сумму � n; (иi + 1 )2 помещают в нижнюю клетку столбца . . 3 а м е ч а н и е 1. Целесообразно отдельно складывать отрица тельные числа четвертого столбца (их сумму А1 записывают в клет ку строки, содержащей ложный нуль) и отдельно по.'!ожительные 241
числа (их сумму А2 записывают в предпоследнюю клетку столбца ); тогда � niЩ=A1+A_ . 2 3 а м е ч а н и е 2. При вычислении произведений n1ut пятого столбца целесообразно числа щщ четвертого столбца умножать на щ. 3 а мечани е 3. Шестой столбец служит для контроля вычис- лений: если сумма � n1(щ+ 1)2 окажется равной сумме � n;u 2 t+ + 2 � п1щ + п (как и должно быть в соответствии с тождеством �n1(Uf + 1)2 = � n1и�+2� п1щ+ п), то вычисления проведены правильно. После того как расчетная таблица заполнена и про верена правильность вычислен ий, вычисляют условные моменты : М�=(�n1U;)/n, М; =(�n;u�)/n. Наконец, вычисляют выборочные среднюю и диспер сию по формулам (*) и (****) § 3 : Х8 = M�h+с, Dв = [М;-(М�)2] h2 . Пример. Найти методом произведений выбо.рочные среднюю и дисперсию следующего статистического распредЕ.>ления: варианты 10,2 10,4 10,6 10,8 11,0 11,2 11 ,4 11,6 11,8 12,0 частоты 238132520121061 Р е ш е н и е. Составим расчетную таблицу, для чего: 1) запишем варианты в первый столбец; 2) запишем частоты во второй столбец; сумму частот (100) по местим в нижнюю клетку столбца; 3) в качестве ложного нуля выберем варианту 11,0 (эта вариан та расположена примерно в середине вариационного ряда); в клетке третьего столбца, которая принадлежит строке, содержащей выбран ный ложный нуль, пишем О; над нулем записываем последовательно -1,-2,-3, -4,аподнулем-1,2,3,4,5; 4) произведения частот на условные варианты записываем в чет вертый столбец; отдельно находим сумму (-46) отрицательных и от дельно сумму (103) положительных чисЕ.>л; сложив эти числа , их сумму (57) помещаем в нижнюю клетку столбца; 5) произведения частот на квадраты условных вариант за пишем в пятый столбец; сумму чисел столбца (383) помещаем в нижнюю клетку стоJiбца; _ 6) произведЕ.>ния частот на квадраты условных вариант, увели ченных на единицу, запишем в шестой контрольный столбец; сумму (597) чисел столбца помещаем в нижнюю клетку столбца . В итоге получим расчетную табл. 7 . Контроль: � п1и�+2� n;щ+n=383 +2-57+ 100=597 . �щ(щ+1)2 = 597 . Вычисления произведены правильно. 242
Таблица 7 1 121 з 141 5 16 "i1 ni1 ui 1 niui 1 niuf 1 п1(и1+ 1)2 10.2 121 -4 1-8 1321 18 10,4 , 3 \-3 1-9 1 27 112 10,6 , 8l-21-161 32 18 10,в I 13 l-1 1 -13 1131 о 11,0 1251 о1А1=-46J 125 11,21 201 1 1201 20 180 11,41 121 2 1241 48 1 108 11,61 101 3 1301 90 1 160 11,8 1 6 141241 96 1 150 12,0 111 51 5 1251 36 1 1 1А2=103 1 1 1п=100 1 \ �щщ =57 ,�щи� =383 1�п1(щ+1)2=597 Вычислим условные моменты первого и второго порядков: м; = (� niщ)/n = 571 100=0,57; м; =(� niu�)/n=383/l00 =3,83 . Найдем шаг: h = 10,4- 10,2 = 0,2. Вычислим искомые выборочные среднюю и дисперсию: x8 =M�h-F-C=0,57 ·0,2 + 11,0= 11 ,1; D8 = [м; -(м;)2] h2 = [3,83 - (0 ,57)2]·0,22 =0,l4. § 5. Сведен ие первоначальных вариант к рав ноотстоящим Выше изложена методи ка расчета выборочных характеристик для равноотстоящих в ариант. Н <! прак тике, как правило, данные наблюдений не являются рав- 2'13
ноотстоящими числами . Естественно, возникает воп рос : нельзя ли соответствующей обработкой наблюдаемых значен ий признака свести ·вычис.пения к случаю равноот стоящих вариант? Оказывается, можно . С этой целью интервал , в котором заключены все наблюдаемые значе ния признака (первоначальные варианты), делят на не сколько равных частичных интервалов. (Практически в каждый частичный интервал должно попасть не менее 8- 10 первоначальных вариант.) Затем нах одят середины частичных интервалов, которые и образ уют последователь ность равноотстоящих вариант. В качестве частоты каждой «новой» вар ианты (середины частичного интервала) принимают общее число первона чальных вариант, попавших в соответствующий частичный интервал. Ясно , что замена первоначальных вар иант середи нами частичных интервалов сопровождается ошибками (перво начальные варианты левой половины частичного интер вала будут увеличены, а варианты правой половины уменьшены), одн ако эти ошибки будут в основном пога шаться, поскольку они имеют разные знаки . Пример. Выборочная совокупность объема n= 100 задана табл. 8. Составить распределение равноотстоящих вариант. Решен и е. Разобьем интервал 1,00-1,50, например, на сле дующие 5 частичных интервалов: 1 ,00-1,10; 1,10- 1,20; 1,20-1,30; 1 ,30-1,40; 1,40 - 1,50. Таблица 8 х; 1ni 1xi 1ni 1Xi 1ni 1,00 1 1,19 2 1,37 6 1,03 3 1,20 4 1,38 2 1,05 6 1,23 4 1,39 1 1,06 4 1,25 в 1,40 2 1,08 2 1,26 4 1,44 3 1,10 4 1,29 4, 1,45 3 l,12 3. 1,30 6 1,46 2 1,15 6 1,32 4 1,49 4 l,16 5 1,33 5 1,50 2 Приняв середины частичных интервалов. в качестве новых вариант у;, получим равноотстоящие варианты: у1= 1,05; у2 = 1,15; Ya =l,25; 114=l,35i у6=1,45. 244
Найдем частоту варианты у1: n1 = 1 +з+в+4+2+4/2 = 18. (Поскольку первоначальная варианта 1,10 ьдновременно является концом первого частичного интервала и началом второго, частота 4 этой варианты поровну распределена между обоими частичными ин тервалами.) Найдем частоту варианты у 2: п2= 4/2+3+6+5+2+4/2=20. Аналогично вычислим ча стоты остал ьных вариант: n3 = 25; n4 = 22: n11 =15. В итоге получим следующее распределение равноотстоящих ва риант: Yi 1,05 1,15 п;1820 1,25 1,35 25 22 1,45 15 Рекомендуем читателю убедиться, что выборочные средние и дис персии, вычисленные по первоначальным и равноотстоящим вариан там, окажутся соответственно равными: Х8 = 1 ,250; Ув = 1,246; Dx =0,0\8; D11 =0,0l7. Как видим, замена первоначальных вариант равноотстоящими не при вела к существенным ошибкам; при этом объем вычислительной работы значител ьно уменьшается. § 6 . Эмпирические и выравнивающие (теоретические) частоты А . Дискретное распределение. Рассмот рим дис кретную случайную величину Х, закон распределения которой неизвестен . Пусть произведено п испытаний, в которых величина Х приняла n1 раз значение xi; n2 раз значение х2 , •••, nk раз значение xk , причем � n; = п. Эмпир ическими частотами называют фактически на блюдаемые частоты п 1• Пусть имеются основания предположить, что изуча емая величина Х распределена по некоторому определен ному закону . Чтобы яроверить, согласуется ли это предо положение с данными наблюдений, вычисляют частоты наблюдаемых значений, т. е. находят тео рети ческ и частоту п.; каждого из наблюдаемых значений в предпо ложении, что величина Х распределена по предполагае мому закону. Выравн ивающими (теорет ическ ими) в отличие от фак тически наблюдаемых эмпи р ических частот называют частоты n i , найденные теоретически (вычислением). Вы- 245
равнивающие частоты находят с помощью равенства п; =пР1, где п-число испытаний; Р1 -ве роятность наблюдаемого значения х 1, вычисленная при допущении, что Х имеет предполагаемое распределение. Итак, выравнивающая частота наблюдаемого значения х1 дискретного распределения равна произведению числа испытаний на вероятность этого наблюдаемого значения. Пример. В результате эксперимента, состоящего из n=520 испы· таний, в каждом из которых регистрировалось число Х/ появлений некоторого события, получено следующее эмпирическое распределение: набл. значения . •х1О 1234567 эмп. частота .•n11201671306927511 Найти выравнивающие частоты п; в предположении, что случайная величина Х (генеральная совокупность) распределена по закону Пуассона. · Решение. Известно, что параметр Л, которым определяется распределение Пуассона, равен математическому ожиданию этого распределения. Поскольку в качестве оценки математического ожи дания принимают выборочную среднюю (см. гл . XVI, § 5), то и в качестве оценки Л можно принять выборочную среднюю х8 • Легко найти по условию, что выборочная средняя равна 1,5, следовательно, можно принять Л = 1,5 . Таким образом, формула Пуассона Р" (k) = (Лke- 1)/kl принимает вид Р62о (k)=(l,5k ·e-1 ·�)/k\ Пользуясь этой формулой , найдем вероятности Р620 (k) при k=O, 1, 2, 3, 4, 5, 6, 7 (для простоты записи индекс 520 далее опущен): Р(О) =О,223 13, P(l)=0,33469, Р(2) =0 ,25 1021, Р(3) =0, 12551 1, Р(4) = 0,047066, Р(5) = 0,014120, Р(6) = 0 .ОО3530, Р(7) =0,000755. Найдем выравнивающие частоты (результаты умножения округ лены до единицы): n� =nP (0) =520 ·0 ,22313= l16 , п;= пР(1)=520 ·0,33469=174. Аналогично находят и остальные выравнивающие частоты. В ито ге получим: эмn.частота••1231671306927511 выр. частота • • 116174131652572О Сравнительно небольшое расхождение эмпирических и выравни вающих частот подтверждает предположение, что рассматриваемое расп ределение подчинено закону ТТуассона. З аметим, что если подсчитать выборочную дисперсию по данному распределению, то окажется, что она равна выборочной средней, т. е. 1,5. Это служит еще одним подтверждением сделанного предпо .�южения, поскмьку для распределения Пуассона Л = М (Х) = D (Х). 246
Сравнения эмпирических н теоретических частот сна глаз», ко нечно, недостаточно. Чтобы сделать это более обоснованно, надо испо.пьзовать, например, критерий Пирсона (см. гл . XIX, § 23). Проверка гипотезы о распределении случайной величины по закону Пуассона изложена в книге: Гму р м ан В. Е . Руководство к реше нию задач по теории вероятностей и математической статистике. М. , «Высшая школа », 1972 (см. гл. XIII , § 17). Б. Непрерывное распределе ние. В случае непрерывного распределения, ве роятности отдельных возможных значе ний равны нулю (см. гл . Х, § 2, следствие 2). Поэтому весь интервал возможных значений делят на k непересе кающихся интервалов и вычисляют вероятности Рi попа дания Х в i-й частичный интервал, а затем, как и для дискретного распределения, умножают число испытаний на эти вероятности . Итак, выравнивающие частоты непрерыв ного распределения находят по равенству nt =nPi, где п-число испытаний; Р1- вероятность попадания Х в i-й частичный интервал, вычисленная при допущении. что Х имеет предполагаемое распределение. В частности, если имеются основания предположить, что случайная величина Х (генеральная совокупность) распределена нормал ь но, то вы равни вающие частоты могут быть найдены по формуле п;=nhер(и1), Ов где п-число испытаний (объем выборки), h-длина час тичного интервала, <J8 - выборочное среднее квадрати ческое отклонение, u i = (x1-x 8)/<J8 (х1 - середина i-го частичного интервала), 1 ер(и)=--е - и•12. r'2n Пример на применение формулы (*) приведен в § 7. Поя снение. Поясним происхождение формулы {*). Напишем !1 лотность общего нормального распределения: f(х)=о� е-<х-а)"/(211». .247
При а = О и G = 1 получим плотность нормированного распределения: <р(х)= ..} е-х•/2 , r2n или, изменив обозначение аргу мента , 1 <р(и)="r- е-и•/2. r2n Положив и = (х -а)/а, имеем 1 <р (и)= "r- е - (x-a)1/(2<J2) . r2n Сравнивая (**) и (***), заключаем, что 1 f(х) =а<р (и). (***) Если математическое ожидание а и среднее квадрати ческое отклонение G неизвестны, то в качестве оценок этих параметров принимают соответственно выборочную среднюю Х8 и выборочное среднее квадратическое откло нение 08 (см. гл. XVI, § 5,9). Тогда 1 f(х)=0ер(и), в где и = (Х-Х8)/<1в· Пусть х;-середина i-го интервала (на которые раз бита совоку пность всех наблюдаемых значений нормально распределенной случайной величины Х) длиной h . Тогда вероятность попадания Х в этот интервал приближенно равна произведен ию длины интервала на значение плот ности распределения f (х) в любой точке интервала и, в частности, при х = Х; (см. гл. XI, § 5): 1 P; = hf (х;) =h0<р(и;). в Следов ательно, выравнивающая частота п;=пР1= n h <р (и;), Ов где и1 = (x1 -Xs)/G8• Мы получили формулу (*) . 248
§ 7 . Построение нормальной кривой по опытным да нным Один из способов построения нормальной кривой по данным наблюдений состоит в следующем: 1) находят Х8 и 0'8, например, по методу произведений; 2) находят ординаты Yi (выравнивающие частоты) теоретической кривой по формуле Yi = пh • q> (и;) , где п - О"в сумма наблюдаемых частот, h-разность между двумя соседни ми вариантами : ui = (хi -хв)/0'8 и q> (и)= = (1/V2n)е-и•12; 3) строят точки (xi , Yi) в пря моугольной системе ко ординат и соединяют их плавной кривой . Близость вы равнивающих частот к наблюдаемым под тверждает правильность допущения о том, что обследу е мый признак распределен нормально. Пример. Построить нормальную кривую по данному распределе нию: варианты•••Xi152025303540455055 частоты • . •ni61338741068530104 Решение. Пользуясь методом произведений (см. § 4), найдем Х8 =34,7 , 0'8 =7,38. Вычислим выравнивающие частоты (табл. 9). х; ni хi -хв 15 6 -19,7 20 13 -14 ,7 25 38 -9 ,7 30 74 -4,7 35 106 0,3 40 85 5,3 45 30 10,3 50 10 15,3 55 4 20 ,3 lп= 366 11 - U·= Х;-ХВ l (JB -2 ,67 - 1,99 -1 ,31 -0 ,63 0,05 0,73 1,41 2,09 2,77 q> (";) 0,01 13 0,0551 о, 1691 0,327 1 0,3984 0,3056 О,1476 0,0449 0,0086 1 Таблица 9 nh 11;=сг· q> (";)= в = 248·q> ("i) 3 14 42 82 99 76 37 11 2 1 �У1=366 " 249
На рис. 22 построены нормальная (теоретическая) кривая по выравнивающим частотам (они отмечены круж ками) и поли гон наблюдаемых частот (они отмечены Yt 100 80 60 .:о 20 крестиками) . Сравнение графиков наглядно по казывает , что построен ная теоретическая кри вая удовлетворительно отражает данные на блюден ий . Для того чтобы бо лее уверенно считать, что данные наблюдений свидетел ьствуют о нор- � мальном распределении Xi признака, польз уются специальными правила ми (их называют кри териями согласи я), понятие о которых можно найти далее (см. гл . XIX, § 23). о 10zo30<1\0 Рис. 22 50 60 § 8. Оценка отклонен и я эмпирического распределения от нормального. Асимме три я и эксцесс Для оценки отклонения эмпир ического распре деления от нормального используют различные характе ристики , к числу которых относятся асимметрия и эксцесс . Смысл этих характеристик аналогичен смыслу асимметрии и эксцесса теоретического распредел ения (см. гл . XII, §.9) . Асимметрия эмп ирического распределен ия определяется равенством а8=та/а:, где та- центральный эмп ирический момент третьего порядка (см. § 2). Эксцесс эмпири ческого распределения определяется ра венством ek = т4/а� -3, где т4- центральный эмпирический момент четвертого порядка . Моменты та и т4 удобно вычислять методом произ ведений (см. § 4), используя формулы (***) § 3. 250
Пример. Найти асимметрию и эксцесс эмпирического распреде· пения: " варианта 10,2 10,4 10,6 10,8 11,0 11,2 11,4 11,6 11,8 12,0 частота 23 8 132520121061 Реш е н и е. Воспол�зуемся методом произведений, для чего со ставим расчетную табл. 10. Поскольку в § 4 указано, как заполня ются столбцы 1-5 таблицы, ограничимся краткими пояснениями: для заполнения столбца 6 удобно перемножать числа каждой строки столбцов 3 и 5; для заполнения столбца 7 удобно перемножать числа каждой строки столбцов 3 и 6. Столбец 8 служит дл я контроля вычислений по тождеству: �п; (щ+1)4= � n;uf+4�щиf+6�п,и:+4�п;щ+п. Контроль: � п;(щ+ 1)4= 9141; 1 12 Х; 1n; 10,2I 2 10,4 13 10,6 18 10,8 \ 13 11,0 125 11,2 120 11.4 J 12 11,6 110 11,8I 6 12,0 11 1 �п;иf+4� n;uf+6·�;цщ2+4�n;u;+n= =4079 + 4·609 + 6·383 + 4·57 + 100=9141 . Таблица 10 131 4 151 6 171 8 1"i 1 п1и1 1n;uf1п1иf1 п1иf 1 n;(и;+1)4 1-4/ -8 1321 -1 28 15121 162 l-3 1-9 1271 -81 12431 48 l-2 1 -16 1321 -64 11281 8 \-1 1 -13 1131 -13 1131 - 1о\ -46 1 1-286 1125 111 20 1201 20 1201 320 121 24 1481 96 11921 972 13\ 30 1901 270 1810. 1 2560 141 24 196 1384 115361 3750 15\ 5 1251 125 16251 1296 111031 1 895 11 1� 1 �01 1� п,и, �1�n;ul �1�п,и/ �1�n1uf �1 �п; (щ + =57 =383 =60 9 = 4079 + 1)4=9141 251
Совпадение сумм свидетельствует о том, что вычисления произведены правильно. В примере § 4 для рассматриваемого распределения было най- • • ,г-- -- дено: М1 =0,57; М2 =3,83; D8 =0,14, следовательно, 08 = у 0,14. Найдем условные моменты третьего и четвертого порядка: м; = (� n;uf)/n =609/l00 = 6,09; м:= (� niuf)/n=4079/ l00=40,79 . Найдем центральные эмпирические моменты третьего и четвер того порядка: Найдем асимметрию и эксцесс: 3 а меча н и е. В случае малых выборок к оценкам асимметрии и эксцесса следует относиться с осторожностью и определить точ ность этих оценок (см .: Сми рно в Н. В. и Дунин- Барк о в с кий И. В. }( у рс теории вероятностей и математической статистики. М. , «Наука», 1965, с. 277). Задачи В задачах 1-2 да ны выборочные варианты и их частоты. Найти, пользуясь методом произведений, выборочные среднюю и дисперсию. 1. Х{ п; 252 10,3 10,5 10,7 10,9 ll'1 11 ,З ll,5 ll ,7 ll,9 12'1 4 7 8 10251512104 5 Отв. Х8 = 11,19, D8 =0,19. 2. Xj838587899193959799101 п;67121530108642 Отв. i;=90,72, D8 = 17,20. 8. Найти асимметрию и эксцесс эмпирического распределения Х/ 10,6 10,8 11,0 11,2 n15 101730 Oms. а8 = -0,0006, ek = 0,00004. ll,4 11, 6 20 12 11,8 6
Глава восе мнадr•атая ЭЛЕМЕНТЫ ТЕОРИИ l(ОРРЕЛЯЦИИ § 1. Функциональная, статистическая и корреляционная зависимости Во многих задачах требуется установить и оце нить зависимость изучаемой случайной величины У от одной или нескольких других величин. Рассмотрим сначала зависимость У от одн ой случайной (или неслучайной) величины Х, а затем от нескольких величин (см . § 15) . Две случайные величины могут быть связаны либо функциональной зависимостью (см. гл . XII, § 10) , либо зависимостью другого рода, называемой ·статистической, либо быть независимыми. Строгая функциональная зависимость реализуется ред ко, так как обе величины или одна из них подвержены еще действию случайных факторов , причем среди них могут быть и общие для обеих величин (под «общи ми» здесь подразу меваются такие факторы, которые воздействуют и на У и на Х). В этом случае возникает статистическ ая зависимость. Например, если У зависит от случайных факторов Z1, Z2, V1, V2, а Х зависит от случайных факторов Z1 , Z2 , U1, то между У и Х имеется статистическая зависимость, так как среди случайных факторов есть общие, а имен но:Z1иZ2• Статистической называют зависимость, при которой изменение одной из величин влечет изменение расп реде ления другой. В частности, статистическая зависимость проявляется в том, что при изменении одной из величин изменяется сред нее значение другой; в этом случае ста тистическую зависимость называют корреляционной. Приведем пример случайной величины У, которая не связана с величиной Х функционально, а связана кор реляционно. Пусть У-урожай зе рна, Х-кол ичество удоб рений. С оди наковых по площади участков земл и при равных количествах внесенных удобрений снимают различный урожай, т. е. У не является функцией от Х. Это объясняется влиянием случайных факторов (осадк и, температура воздуха и др.). Вместе с тем, как показы вает опыт, средний урожай явл яется функцией от количе ства удобрений , т. е. У связан с Х корреляционной зависи мостью. 253
§ 2. Условные средние В качестве оценок условных математических ожиданий (см. гл . XIV, § 15) принимают условные сред ние, которые находят по даннь1м наблюдений (по выборке). Условным средним Ух называют среднее арифметиче ское наблюдавшихся значений У, соответствующих Х = х. Например, если при х1 = 2 величина У приняла значе- ния у1=5, у2=6, Уэ=10, то условное среднееУх, = = (5+6+10)/3=7. Аналогично оп ред�яется ус,J J овное среднее Ху . Условным средниJ.t ху называют среднее арифметическое наблюдавшихся значений Х, соответствующих У = у. § 3 . Выборочные уравнения регрессии В гл . XIV, § 15 были введены уравнения регрес сииУнаХиХнаУ: М(У1х)=f(х), М(Х1у)=q>(у). Условное математическое ожидание М (У 1 х) является функцией от х, следовател ьно, его оцен ка, т. е . услов- ное среднее Ух • также функция от х; обозначив эту функ цию через f• (х) , получим уравнение Ух = f•(х). Это уравнение называют выборочным уравнением регрес сии У на Х; функцию f• (х) называют выборочной регрес сией У на Х, а ее г рафик - выборочной линией регрес сии У на Х. Анал огично уравнение хи =q>*(у) называют вьЮорочны.м уравнением регрессии Х на У; функ цию q>* (у) называют вы6орочной регрессией Х на У, а ее графи к -выборочной линией регрессии Х на У. Как найти по данным наблюде ний параметры функ ций f• (х) и q>* (у), есл и вид их известен? Как оценить сил у (тесноту) связи между вел ичинами Х и У и устано вить, коррел ированы л и эти величины? Ответы на эти вопросы изл ожены н иже . 264
§ 4. От ыскан ие параметров выборочн ого ура внения Прямой ли нии среднек вадратичной регрессии по несrруппированным да нным Пусть изучается система количественных приз наков {Х, У). В результате п независимых опытов полу чены п пар чисел (х1, у1), (Х2 Ys), . .., (хп, Уп). Найдем по данным наблюдений выборочное уравнение прямой линии среднек вадратичной регресс ии (см . гл . XIV, § 20). Для определенности будем искать уравнение Yx=kx + b регрессии У на Х. Поскольку различные значения х признака Х и соот ветствующие им значения у признака У наблюдались по одному разу, то группировать данные нет необходи мости. Также нет надобности использовать понятие услов ной средней , поэтому искомое уравнение можно записать так: у=kх+ь. Угловой коэффициент прямой линии регрессии У на Х называют выборочным коэффициентом регрессии У на . Х и обозначают через Рих ; он является оценкой коэффици ента регрессии � (см . гл . XIV, § 20). Итак, будем искать выборочное уравнение прямой линии регрессии У на Х вида У=Рухх+Ь. (*) Подберем параметры Рих и Ь так, чтобы точки (х1; у1) (х2; у2), ••• , (хп; Уп) , построенные по данным наб людений, на плоскости хОу лежали как можно ближе к прямой (*) · Уточним смысл этого требования. Назовем отклонением разность У;-У; (i= 1, 2•..., п), где У;-вычисленная по уравнению (*) ордината, соответ ствующая наблюдаемому значению х;; У; -наблюдаемая ордината , соответствующая Х; . Подберем параметры Pvx и Ь так , чтобы сумма квад ратов отклонений была минимальной (в этом состоит сущность метода наименьших квадратов). Так как каж дое отклонение зависит от отыскиваемых параметров, то и сумма квадратов отклонений есть функция F этих 255
параметров (временно вместо Рух будем писать р): п F (р, Ь) = � (Yi-Yi)2 , i=1 или п F(р, Ь)= � (pxi +b-yi)2• i=1 Для отыскания минимума приравняем нулю соответству ющие частные производные : дF п дn = 2 � (pxi +b-yдxi=O; t' L=1 дF п дЬ =2 �(pxi+b-yi)=O. i=1 Выполнив элементарные преобразования , получим си стему двух линейных уравнений относительно р и Ь* 1: (� х2)р+(�х)Ь=�ху; (� x) p+nb=�y. (**) Решив эту систему , найдем искомые па раметры: Рух=(п -� ху -�Х · �у)/(п �х2 -(�х)2); Ь=(�х2 • �у- �х·�ху)/(п �х2 -(�х) 2). (***) Аналогично можно найти выборочное уравнение пря мой линии регрессии Х на У: ху = Рхух+С, где Рху -выборочный коэффициент регрессии Х на У. Пример. Найти выборочное уравнение прямой .пинии регрессии У на Х по данным п = 5 наблюдений: х 1,00 1,50 3,00 4,50 5,00 у 1,25 1,40 1,50 1,75 2,25 Р е ш е н и е. Составим расчетную табл. 11. Найдем искомые параметры, для чего подставим вычисленные по таблице суммы в соотношения (***): 256 Рху = (5 -26,975 - 15·8,15)/{5 ·57,5- 152) = 0,202; Ь = (57,5·8 ,15- 15 ·26 ,975)/62,5 = 1 ,024. п •> Для простоты записи вместо � условимся пиtать � . . l=1
Таблица Il x i 1Yj 1х] 1 XjY/ . 1 ,00 1,25 1 ,00 1 ,250 1,50 ' 1,40 2,25 2, 100 3,00 1 ,50 9,00 4,500 4,50 1,75 20 ,25 7,875 5,00 2,25 25 ,00 11,250 �Xj =l5 1 �У;=8,15 1�2 х;. =57,50 1 � XiYi =26 ,975 Напишем искомое уравнение регрессии: У =0,202х + 1,024. Для того чтобы получить представление, насколько хорошо вы численные по этому уравнению значения У; согласуются с наблюдае� мыми значениями у;, найдем отклонения У; -у;. Результаты вычис лений приведены в табл. 12 . Таблица 12 х , 1У. 1У; 1 Уги; 1 1 ,00 1,226 1,25 -0 ,024 1,50 1,327 1,40 -0 ,073 3,00 1,630 1,50 О, 130 4,50 1,933 1,75 0,183 5,00 2,034 2,25 -О ,216 , l(ак видно из таблицы, не все отклонения достаточно малы. Это объясняется малым числом наблюдений. § 5. Коррел яционная таблица При большом числе наблюденИй одн о и то же значение х может встретиться nx раз, одно и то же зна чение у-пу раз, одна и та же пара чисел (х, у) может наблюдаться nxy раз. Поэтому данные наблюден ий груп пируют, т. е. подсчитывают частоты nx, пу, nxy · Все сгруппированные данные зап исывают в виде таблицы. которую называют корреляционной . 9-2 10 257
Поясним устройство корреляционной таблицы на при мере табл. 13. Таблица 13 х у 1111 10 20 30 40 п у 0,4 5 - 7 14 26 0,6 - 2 6 4 12 0,8 3 19 - - 22 nx 181 21 1131 18 n=60 В первой строке таблицы указаны наблюдаемые зна чен ия ( 1 О; 20; 30; 40) признака Х, а в первом столбце - наблюдаемые значен ия (0,4; 0,6; 0,8) признака У. На пе ресечении строк и столбцов находятся частоты nxy наблю даемых пар значений Признаков. Например, частота 5 указывает, что пара чисел (10; 0,4) наблюдал ась 5 раз . Все частоты помещены в прямоугольнике, стороны кото рого проведены жирными отрезками . Черточка означает; что соответственная пара чисел, например (20; 0,4), не наблюдалась. В последнем столбце записаны суммы частот строк. Например, сумма частот первой строки «жирного» прямо угольника равна пу = 5+7+.14=26; это число указы вает, что значение признака У, равное 0,4 (в сочетаний с различными значениями признака Х), наблюдалось 26 раз. В последней строке записаны суммы частот столбцов. Например, число 8 указывает, что значение признака Х, равное 10 (в сочетании с разл ичными значениями при знака У), наблюдалось 8 раз. В клетке, расположен ной в нижнем правом углу таблицы, помещена сумма всех частот (общее число всех наблюдений п) . Очевидно, � nx = � пу = п. В нашем при мере � nx=8+21+13+18 =60 и � ny =26+ 12 +22=60: 258
§ 6. Отыскание парам�тров выборочного уравнения прямой линии регрессии по сгруппированным данным В § 4 для определения параметров уравнения прямой линии регрессии У на Х была получена система уравнений (�х2)Pvx+(�x)Ь-=�ху, } (�х) Pvx+ nb =�у. Предпол агалось, что значения Х и соответствующие им значения У наблюдались по одному разу . Теперь же допустим, что получено большое число данных (практи- , чески для удовлетворительной оценки искомых парамет ров дол жно быть хотя бы 50 наблюдений), среди них есть повторяющиеся , и они сгруппированы в виде коррел я ционной таблицы. Запишем систему (*) так, чтобы она отражала данные кор реляционной таблицы. Восполь зуемся тождествами : �Х = пх (следствие из Х=� х/п) ; �y=ny (следствие из у=�у/п ) ; �Х2 = nx2 (следствие ИЗ Х2 = �X2/n), � ху=�nxuXY (учтено, что пара чисел (х, у) наблюда- лась nxy раз) . . Подст авив правые части тождеств в систему (*) и со кратив обе части второго уравнения на п, получим (пХ2)Pvx+(пх)Ь=�nxyху, } (х)Pvx+Ь=у. Решив эту систему, найдем парамет ры Pvx и Ь и, следо вательно, искомое уравнение Ух =Рvхх+Ь. Одн ако более целесообразно, введя новую величину - выборочный коэффициент кор реляции, написать уравне ние регрессии в ином виде . Сделаем. это . Найдем Ь из второго уравнения (**) : b=Y -Pvx x. 259
Подставив правую часть этого равенства в уравнение Ух=Рух Х + Ь, ПОЛУЧИМ Ух -У = Рих (х-х). {***) Найдем *> из системы {*) коэф ф ициент регрессии , учи тывая, что х2 -{х)2 = cr� (см. гл . XVI, § 10): �nx.,ry-nxy �nx.,ry-nxy Рих = п [х2 -(x)11J = па� • Умножим обе части равенства на . дробь C1xf<:J11 t .ох_ �nxyxg-пxi Рих - - - - • Оу nOxOy Обозначим правую часть равенства через rв и назовем ее выборочным коэффициентом коррелЯции (см. замечание 3): • Подставим r в в (****) : Отсюда Подставив правую часть этого равенства в (***), оконча тел ьно пол учи м выборочное уравнение прямой л инии регрессии У на Х вида - - Оу - Ух-У=rв::-(х-х). Ох 3 а м е ч а н и е 1. Аналогично находят выборочное уравнение прямой линии регрессии Х на У вида •> В этой- главе выборочное среднее квадратическое отклонение обозначено через о; например, ох-выборочное среднее квадратиче ское отклонение Х. 260
3 а мечани е 2. Уравнения выборочных прямых регрессии можно записать в более симметричной форме: - - Ух-У Х-Х Ху -Х у-у - - -=Гв- -- ,- _- ==rв -- - . Оу Ох Ох Оу 3амечание3. _Выборочный коэф ф ициент корреляции является оценкой коэф ф ициента корреляции JLxu М (ХУ)-М (Х)·М(У) r=--= • ОхОу . ОхОу Действительно, используя метод моментов (см. гл . XVI, § 21), т. е. заменив числовые характеристики их оценками, получим [(�nxrY)fnj-xu �пхrи - пху Гв= - - ОхОу noxOy § 7. Выбороч ный коэффициент корреляци и Как следует из предыдущего параграфа, выбо рочный коэффициент корреляции о пределяется равенством �пх11ху-пху fв= - - ' noxo11 где х, у-ва рианты (наблюдавшиеся значения) признаков Х и У ; nху -частота пары вариант (х, у); n:-объем выборки (сумма всех частот); о.=! , .0-и -выборочцые средние квадратические отклонения; х, у-выбор очные средние. Известно , что если вел ичины У и Х независимы, то коэффициент корреляции r = 0 (см. гл . XIV, § 17); если .r=±1,тоУ иХ связаны линейнойфункциональной зависимостью (см. гл . XIV, § 20). Отсюда следует, что коэффициент к орреляции r измеряет силу (тесноту) ли нейной связи между У иХ. Выборо чный коэффициент корреляции r в явл яется о ценкой коэффициента корреляции r генеральной со во купности и поэто му также служит для измерения линей н ой связи между величинами - количествен ными призна ками У и Х. До пустим, что выборочный коэффициент корреляции, найденный по выборке, о казался отличным о т нуля. Так как выб орка отобрана случайно , то отсюда еще нельзя заключить, что коэффициент ко рреляции ге неральной совокупности также отличен от нуля. Возни кает необходимо сть про верить гипотезу о значимости (существенности) выборочно го коэффициента ко рреляции 261
(или, что то же , о равенстве нулю коэф ф ициента корре л я ции генерал�ной сов о купности) . Есл и гипотеза о равен стве нулю ге нерального коэффицие нта коррел яции будет отве ргнута, то выборочный коэффицие нт коррел яции зна чим, а вел ичины Х и У коррел ированы; есл и гипотеза принята, то выборочный коэффициент коррел яции незна чим, а величины Х и У не коррелированы. Проверка гипотезы о значимости выборочного ко эф фициента коррел яции для сл учая нормал ьной коррел яции изложена далее (см. гл. XIX, § 21). Есл и - выборка имеет достаточно бол ьшой объем и хорошо представл я ет гене рал ьную сово купность (репре зентативна}, то заключение о тесноте линейной зависимо сти между признаками, полученное по данным вьlборки, в известной сте пени может быть распростране но и на генеральную совокуп ность. Наприме р, дл я оценки коэф фиц иента ко ррел яции r r нормал ьно распределенной гене рал ьной совокупности (при п � 50) можно воспользо ваться формулой 31-г;__ __ +З1+г: rв- vп:: :: :: ::. ' r :: :: :: : 'в vп. 3амечание 1. Зна� выборочного коэф ф ициента корреляции совпадает со знаком выборочных коэф ф ициентов регрессии,\ что сле дует из формул (см. § 6): - � f171 Ох () Рух=Гв-:;- - ; Рху=Гв.�• * (Jх f1y 3амечание 2. Выборочный коэф ф �циент корреляции равен среднему геометрическому выборочных коэф ф ициентов регрессии. Действител�;но; перемножив левые и правые части равенств (•), получим Оrсюда Гв = ± УРухРху· Эа:ак при радикале в соответствии с замечанием 1 должен совпадать со знаком коэф ф ициентов -регрессии. § 8. Методика вычислени я выборочного коэф ф ициента корреляции Пусть требуется по данным коррел яционной табл ицы вычисл ить выборочный коэф ф и циент ко рреляции. Можно значител ьно .у простить расчет, есл и перейти к 262
условным вариантам (при этом величина rв не изменится) . ui= (xi-C1)/h1 и vi = (yi -C2)/h2• В этом случае выборочный коэффициент ко рреляции вы числ яют по формуле rв=(� nuvиv -nuv)/(nauav) · Величины u, V, ап и crv можно найти методом произве дений (см. гл . XVII, § 4), а при малом числе данных непосредственно исходя из оп редел ений этих величин. Остается указать спос об вычисл ения � navuv, где nпv - частота пары условных вариант (и, v). Можно доказать, что справедл ивы формулы (см. пояс нение в конце параграфа): �nпvUV=�vU, где U=�navU, �navUV=� uV, rде V = � nuvV• Для контроля целесообразно выполнить расчеты по обеим формул ам и сравнить резул ьтаты; их совпадение свидетел ьствует о правил ьности вычисл ен ий. Покажем на примере, как пользоваться приведенными фо рмул ами. Пример 1. Вычислить � n0vиv по данным корреляционной табл. 14. · Таблица 14 х у 11111п 10 20 зо 40 50 60 у 15 5 171 - 1-1 - 1- 12 25 - 120 123 1-1 - 1- 43 35 - 1-1 30 147 121 - 79 45 - 1-1 10 111 120 16 47 55 - 1-1 - 191 7 13 19 п.,. 151 27 1631 67 129 191 n=200 . 263
Решение. Перейдем к условным вариантам: щ = (x1 -C1)/f11 = = (xi-40)/IO (в качестве ложного ну.11я С1 взята варианта х =40. расположенная примерно в середине вариащ1онного ряда; шаг hi равен разности между двумя соседними вариантами: 20-10=10) и v1 =(y1 -C,.)/h2 =(y1 -З5)/IO (в качестве ложного нуля С2 взята варианта у=35, расположенная в середине вариационного ряда; шаг h2 равен разности между двумя соседн ими вариантами: 25-15=10). Составим корреляционную таблицу в условных вариантах. Прак тически это делают так: в первом столбце вместо ложного нуля С2 (варианты 35) nишут О; над нулем последовательно записывают -1 . -2; под нулем пишут 1 , 2. В первой строке вместо ложного иуля С1 (варианты 40) пишут О; слева от нуля последовательно записывают -1, -2, -3; справа от нуля пишут 1, 2. Все остальные данные переписывают из первоначальной корреляционной таблицы. В итоге получим корреляционную табл. 15 в условных вариантах. Та. блица 15 1�1--=;-/ и 1 v. 111 по -1 о 1 2 -2 5 171 - 1-1 - 1- 12 -1 - 1201 23 1-1 - 1- 43 .о - 1-1 30 1471 2 1- 79 1 - 1-1 10 1111 20 16 47 2 - 1-1 - 191 7 13 19 пи. 15. ,271 63 167 129 19 n=200 Теперь для вычисления искомоji суммы � nuvUV составим рас четную табл . 16. Пояснения к соста влЕ'нию табЛ. 16: 1. В каждой клетке, в которой частота nuv :/; О, записывают в правом верхнем углу произведение частоты nav на варианту и. Например, в правых верхних углах клеток первой строки записаны произведения: 5·(-3)=- 15; 7·(-2)=- 14 . , 2. Складывают все числа , помещеиньrе в правых верхних углах Клеток одной строки и их сумму записывают в клетку этой же строки столбца И. Например, для первой строки И =- 15+(-14)=-29. 3. Умножают варианту v на И и полученное произведение заqи сывают в последнюю клетку той же строки, т. е . в клетку столбца vU . Например,. в первой строке таблицы v = - 2, U =-29; следо вательно, vU =(-2) -( -29) =58. 4. Наконец, сложив все числа столбца vU. получают сумму � vU, которая равна искомой сумме � nuflиv. Например, для табл. 16 о имеем � vU = 169; следовательно, искомая сумма � navUV = 169. v 264
Таблица 16 1 и 11=iп:vи 1 v 1 1 1 1 1 vU -3 -2 -1 о 1 2 /-15 !=:.! !. . -29 58 -2 5 7 - - - - - 10! -141 1-40 1-23 -63 63 -1 - 20 23 - - - -20 1 -2 31 . 1-30 1_0 __ 1_2 _ -28 о о - .. .. . 30 47 2 - -0- 1 -0-1 -0- 1 1-10 1_0 _ 1� 6 12222 1 - - 10 11 20 101 -rп201 -Г/ 1 _ 0_ ,_7_ 3 1 413 26 2· "" "' - - 9 7 181 14/ - 6- I ' V=:Е nuvV -10 -34 - 13 29 34 12 :.EvU=l69 v иV 30 68 13 о 34 24 :ЕиV=169 +-Контрольj � и �
Для контро.�я аналогичные вычисления производят по столбцам: произведения nuvV записывают в левый нижний угол клетки , содер жащей частоту nuv :f: : О; все чисда , помещrнные в левых нижних углах клеток одного столбца , складывают и их сумму записывают в строку V; далее умножают каждую варианту и на V и результат записывают в клетках последней строки. Наконец, сложив все числа последней строки, получают сумму � иV, которая также равна искомой сумме � nuvиv. Например, для и табл. · 16 имеем � иV = 169; следовательно, � nuvUV= 169. и Теперь, когда мы научились вычислять � nuvUV, при · ведем пример на отыскание выборочного коэффициента iКОрреляции. n.е, имер 2. Вычислить выоорочныа коэффициент корреляции ·r8 = (Z,;navиv - nuv)/(naa av) по данным корреляционной табл . 14. Решение . Перейдя к условным вариантам, получим корреля- ;ционную табл. 15. Величины u, v, Ou и Ov можно вычислить методом произведений; однако, поскольку числа щ, v 1 малы, вычислим u и ti, исходя из определения средней, а Gu и О'; -используя формулы (см. rл. XVI, § 10) Оu=Уи2-(и)2, Ov=Yv2-(v)2• Найдем U и V: u=(�nuи)/n= [5·(-3)+27.(-2)+63.(-1)+29.J+ +9·2}/200 =- 0,425; v = (� nvv)/n =[12- (-2) +43-(- 1) +47 . 1+19·2)/200 =0, 09. Вычислим вспомогательную величину u2, а затем О'а: u2 = (� nuи2)/n =(5 ·9+27 -4+63- 1 +29- 1 +9-4)/200 = 1 ,405; оа=Уu2 -(и)2 = YI ,405 - (0,425)2 = I,106. . � - Аналогично пол учим 0'8 = 1,209. Найдем искомый выборочный коэф ф ициент корреляции, учитывая, что ранее уже вычислена сумма � nuvUV = 169: Гв = (� nuvUV- nuv)/(nGuGv) = = (169-200· ( - 0,425) . 0 ,09)/(200 . 1 ,106 . J ,209) = 0,603. Итак, r8= 0,603. · Поя с . нение. Покажем, что � nuvUV= � vU , где И=� nuvU· v и Рассмотрим корреляционную таблицу в условных вариантах (для про· стоты таблиuа содержит мало данных): 266
11 и v 1 1 и, и, и. V1 1 nu 1�'1 1 nU2'Ut 1 nuз'Vt V2 1 nu,v, 1 nU2'V2 1 nu:ruз Найдем � nuvиv двумя способами: суммируя произведения часrот n1111 на �:�роизведен ия соответствующих условных вариант uv по строкам и по столбцам . Для первой строки таблицы nu1v1 • (u1v1) +nu.vs • (U2V1) +пи.111 • (u3v1) = V1 � nu·v1U• (•) и Для второй строки таблицы nu1v2 • (u1v2)+nu:ru• • (u2v2)+nи•'V•• (и3v2) = v2 � nuv2U. (•*) Сложим· (*) и (н) : Ита к, где U =� nuvи. и �nu·vиv = v1 � nuv1n+v2 � nuv2U. 11 и и Аналогично, суммируя произведения частот na11 на произведения соответствующих условных вариант uv по столбцам, получим �nиvUV=� uV, и § 9. При мер на отыскание выборочноrо ура�не ния прямо й ли нии регрессии Теперь, когμ.а известно, как вычисляют rа• уме стно привести пример на отыскание уравнения прямой л инии регрессии. Поскольку при нахождении rв уже вычислены и, v, 011, Ov, то целесообразно пользоваться формулами: 'Gx= hi1a, оу=h/1r."х=uh1+с1, у=vh2+с11• Здесь сох ранены обозначения предыдущего параграфа. Рекомендуем читателю самостоятел ьно вывести эти фор" мулы. \267
Пример. Найти выборочное уравнение прямой линии регрессии У на Х по данным корреляционной табл. 14 примера предыдущего параграфа. Р е ш е н и е. Напишем искомое уравнение в общем виде: - - - Оу - . Ух -У=Гв -=:-(х-х). (*) f1x l{оэф ф ициент корреляции у:Же вычислен в предыдущем параграфе. Остается найти х, у, Ох и otl: . х=uh1+ci = - 0,425· 10+40 =35,75J y=vh2 +c2 =0,09 . 10+з5 =35 ,9; ах = a"hi= 1,106 . 10=11,06; О-11 =ovh2 = 1,209. 10=12,09. Подставив найденные величины в (=1с), �олучим искомое уравнение - 12,09 Yx - 35,9=Q ,603 11 , О6 (х- 35,75), или окончательно Ух =О,659х+ 12,34 . Сравним условные средние, вычисленные: а) no этому уравнению; б) по данным корреляционной табл. 14 . Например, при х=ЗО: а) Уа о =О,659.зо+12,34 =32,11; 1 б) Уао = (2з .2s+зо . зs + J0. 45)/63=32,94. Как видим, согласование расчетного и набJJЮдttемого условных средних -удовлетворительное. § 1 О. Предварительные соображения к введен ию мер ы JIЮбой корреляционной связи Выше рассматривалась оценка тесноты л иней�юй корреляционной связи. Как оценить тесноту л ю б о й корреляционной связи? Пусть данные наблюдений над количественными при зн·аками Х и У сведены в корреляцио нную таблицу. Можно считать, что тем самым набл юдаемые значения У раз биты на группы; каждая группа содержит те значения У, которые соответствуют о пределенному значению Х. На пример, дана коррел яционная табл. 17 . К первой группе относятся те 10 значений У (4 раза наблюдалось у1 = 3 и 6 раз у2 = 5), которые соответст вуют Xi=8. Ко второй группе относятся те 20 значений У ( 13 раз набл юдалось у1 = 3 и 7 раз у2 = 5), кото рые соответствуют Х2=9. 268
Таблица 17 1х1 у 1 3 1 9 3 141 13 5 6 17 n x 1101 20 - 1 4,2 1 3,7 Ух Условные средние теперь можно назвать групповыми сред ними : групповая средн яя первой группы У.= = (4 ·3+ 6·5)/10 = 4,2; групповая средняя второй группы Уа = (13·3+7·5)/20 -:- 3,7. Поскольку все значения признака У разбиты на груп пы , мож�tо представить общую дисперсию признака в виде суммы внутригрупповой и межгрупповой дисперсий (см. гл. XVI, § 12): Покажем с.п раведливость следующ их утвержден ий: 1 ) если У связан с Х функциональной зависимостью. то Dмежrр/Dобщ = 1; 2) если У связан с Х корреляционной зависимостью, то Dмежrр/Dобщ < 1. Доказательство. 1) Если У связан с Х функ циональной зависимостью,тоопределенномузна чению Х соответствует одно значение У. В этом случае в каждой группе. содержатся· равные между собой значе ния У*>, поэтому групповая дисперсия каждой группы равна нулю. Следовател ьно , средняя арифметическая •> Например, если значению х1 =3 соответствует у1 =7, причем х1 = 3 наблюдалось 5 раз, то в группе содержится 5 значений у1 =7. 269
групповых дисперсий (взвешенная по объемам групп), т. е . внутригрупповая дисперсия Dвнrр =О и равенство (*), имеет вид Отсюда Dмежrр/Dобщ = 1. 2)ЕслиУ связанс Х корреляционной завн с и мость ю, то определенному значению Х соответствуют, вообще говоря, различные значения У (образующие груп пу). В tтом случае групповая дисперсия каждой группы отл ична от нуля. Следовательно, средняя арифметическая групповых дисперсий (взвешенная по объемам групп) Dвяrр +О. Тогда одно положител ьное слагаемое DиежГJ меньше суммы двух положительных слагаемых Dвиrр + + Dмежrр с; Dобщ: Отсюда Dмежrр/Dобщ < 1. Уже из приведенных рассуждений видно, что чем связь между признаками ближе к функциональной, тем меньше D88� и, следовател ьно , тем больше приближается Dмежrр к Dобщ• а з начит, отношение Dмежrр/Dобщ - к еди нице. Отсюда ясно, что целесообразно рассматривать в качестве меры те сноты корреляционной зависи мости отношение межгрупповой дисперсии к общей, или , что то же, отно шение межгруппового среднего квадратического отклоне ния к общему среднему квадратическому отклонению. § 11. Выборочное корреляционное отн ошение Для оценки тесноты линейной корреляционной связи между признаками в выборке служит выборочный коэф ф ициент коррел яции. Для оценки тесноты нелиней в о й корреляционной связи вводят новые сводные ха рактеристики : 11uх- выборочное корреляционное отношение У к Х ; 11хи - выборочное корреляционное отношение Х к У . Выборочным корреляцuонным отношением У к Х на- зывают отношение межгруппового среднего квадратиче ского отклонен ия к общему среднему квадратическому 270
откл онению признака У: flyx = (Jмежrр/(Jобщ• ил и в других обозначен иях flyx =(Ji 1(Jy• х 8десь (]Ух = УDмежrр = Jf(�nx (Yx - Y)2)/n ; ау =у Dобщ = V<�пу(y-Y)1)/n, где n -объем выборки (сумма всех частот) ; пх - частота значения х признака Х; пи -частота значения у признака У; у-общая средняя признака У; Ух -условная средняя приsн(lка У . Аналогично определ яется выборочное коррел яционное отношение Х к У1 flxu = (Jx 1(Jх· 11 Пример. Найти Чvх по данным корреляционной табл. 18. Таблица 18 х у 1 1 1 10 20 30 ny 15 4 128 16 38 25 6 1-1 6 12 nx 1101 28 112 1· n=50 - 121 115 1201 Ух Реш е н и е. Найдем общую среднюю: v=(� nyy)/n = (38 · I5+ 12°25)/50 = 17,4. Найдем общее среднее квадратическое отклонение: а11 = Jf(� n11(y-y)1)/n = = }'[38 (15.- 17,4)2 + 12 (25 - 1 7,4)2)/50 = 4,27. 271
Найдем межгрупповое среднее квадра , тическое отклонение: ОУх=V[�nx(Yx-Y)2]/n= . = Y[ IO (21 -17,4)2 +28 (15- 17,4) 2 +12 (20- 17,4)2]/50 = 2 ,73 . Искомое корреляционное отношение riux = о- /оu =2,7З/4,27 =0,64. Ух § 12. Свойства выборочного корреляционного отношения Поскольку 1'1ху обладает теми же свойствами, что и 1'1ux• перечислим свойства только выборочного корре ляционного отношения 1'Jyx• которре далее дл я упрощения записи будем обозначать через 1') и дл я простоты речи называть «корреляцион.ным отношением». · Свойство 1 . Корреляционное отношение удовлетво ряет двойному неравенству 0�1}�1. Док аза тел ьство. Неравенство 't'J�О следует из того, что 't'J. есть отношение неотрицательных чисел - средних квадратических откл онений (межгруппового к общему). Для доказательства неравенства 1} � 1 воспользуемся формулой Dобщ = Dвигр + Dмежгр• Раздел ив обе части равенства на Dобщ• получим 1::. .: Dвягр/Dобщ + Dмежгр/Dобщ• или 1=D в ягр/Dобщ +112• Так как оба слагаемых неот рицательны и сумма их равна еди нице, то каждое из них не превышает еди ницы; в част ности, 1') 2 � 1. Приняв во внимание, что 1') �О, заключаем: 0�1}� 1. Свойство 2. Если 1}=О, то признак У с призна ком Х корреляционной зависимост ью не связан. · Доказател ьство. По усл овию, 1} = (Jмежгр/Gобщ = О . Отсюда Gмежгр =О и, следовател ьно, Dмежгр = О. 272
Ме;Щгрупповая дисперсия есть дисперс� я услов!fы _ х (групповых ) средн их Ух относительно общеи среднеи у. Равенство нулю межгрупповой дисперсии означает, что при всех значен иях Х условные средние сохраняют по стоянное значение (равное общей средн ей). Иными словами, при ч =-0 условная средн яя не является функцией от Х, а значит, признак У не связан корреляционной зависи мостыо с признаком Х. 3 а м е ч а н и е 1. Можно доказать и обратное предложение: если признак У не связан с признаком Х корреляционной зависимостью, тоf}=0. Свойство 3. Если ч=1, то признак У связан с при знаком Х функциональной зависимостью. Док азатель ств о. По ус.човию, Отсюда Возведя обе части равенства в квадрат, получим Dввгр =0. Поскольку внутригрупповая дисперсия есть средн яя арифметическая групповых дисперсий (взвешенная по объ емам групп) , то из (**) следует, что дисперсия каждой группы (значений У, соответствующих определенному значению Х) равна нулю. А это означает, что в группе содержатся равные значения У, т. е . каждо му значению Х соответствует одно значение У. Следовател ьно , при '1 1 = 1 признак У связан с признаком Х функциональной зависимостью. 3 а м е ч а н и е 2. Можно доказать и обратное предположение: если признак У связан с признаком Х функциональной зависимостыо, то f}=l. Приведем еще два свойства, опустив доказ ательств а. С в ойств о 4. Выбор очное корреляционное отношение 273
не меньше абсолют ной величины выборочного коэффициента корреляции: ТJ � 1'в1· С в ойств о 5. Если выбор очное корреляционное отно шение равно абсолютной величине выборочного коэффи циента корреляц ии, то имеет место точная линейная zсорреляционная зависимость. Другими словами1 если ТJ = 1 rв /, то. точки (х1 ; у1), (х2 ; У2), . . .., (хп; Уп) лежат на прямой линии регрессии , найденной способом наименьших квадратов. § 1 3. l(орреляционное отношение как мера корреляционной связи. Достои нства . и недостатки этой меры В предыдущем параграфе установлено : при ТJ =О признаки не связаны коррел яционной зависимостью; при ТJ = 1 имеет место функциональная зависимость. Убедимся , нто с воз растанием ТJ корреляционная связь становится более тесной. С этой целью преобразуем соот ношение D06щ = Dвнгр + Dмежгр так: Dвнгр = Dобщ [ 1 -(Dмежгр/Dобщ)], или Dвнгр =Dобщ(l-112). ЕслиТJ�1,тоDв11гр-- - о, следовател ьно, стремится к нулю и каждая из групповых дисперсий. Другими словами, при возрастании 11 значения У, соответств ующие опреде ленному значению Х, все меньше различаются между собой и связь У с Х становится более тесной, переходя в функциональную при ТJ = 1. Поскольку в рассуждениях не дел алось · никаких до пущений о форме корреляционной связи, ТJ служит мерой тесноты связи любой, в том числе и линейной, формы . В этом состоит преимущество корреляционного отношения перед коэффициентом корреляции, который оценивает тесноту лишь линейной зависимости. Вместе с тем кор реляционное отношение обладает нед о ста т к ом: оно не позволяет судить, насколько близко расположены точки, найденные по данным наблюден ий, к кривой опре деленного вида, например к параболе, ги перболе и т. д. Эrо объясняется тем, что при определении корреляцион ного отноше ния форма связи во внимание не принималась. 274
§ 1 4. Просте йшие случаи кри волинейной корреля ции Если графш< регрессии Ух = f (х) или хУ = <:р (у) изображается кривой линией , то корреляцию называют криволинейной . " Например, функции регрессии У на Х могут иметь вид: Ух =ах2 +ьх+с (параболическая корреляция второго порядка) ; Ух =ах3 + Ьх2 + сх + d (параболическая корреляция третьего порядка). Для оп ределения вида функции регрессии строят точки (х; Ух) и по их расположению делают заключение о при мерном виде функции регресси и; при окончательном ре шении принимают во внимание особенности , вытекающие из сущности решаемой задачи . Теория криволинейной корреляции решает те же за" дачи, что и теория линейной корреляции (установление формы и тесноты кор реляционной связи). Неизвестные параметры уравнения регрессии ищут методом наимень ших квадратов. Для оценки тесноты криволинейной кор реляции служат выборочные корреляционные отношения (см. § 11). Чтобы выяснить суть дела, ограничимся параболиче ской корреляцией второго порядка, предположив, что данные п наблюдений (выборки) позволяют считать , что имеет место именно такая корреляция. В этом случае выборочное уравнение регрессии У на Х имеет вид Ух =Ах2 +Вх+С, (*) где А , В, С-неизвестные параметры. Пользуясь методом наименьших квадратов, получают систему линейнч1х уравнений относительно неизвестных параметров (вывод опущен, поскольку он не соде ржит ничего нового сравнительно с § 4) : (�пххЧА+(�nxX8)B+(�nxX2)С=�nxYxX2; \f (�rixx3) А+(�nxX2) В+(�nxx) С=� nxYxX; (�nxx2) А+(� na;X) В+пС = � nxYx· (**) Найденные из этой системы параметры А , В, С подстав ляют в ( *); в итоге получают искомое уравнение регрессии. 275
Пример. Найти выборочное уравнение регрессии У на Х вида Ух = Ах2 +вх+с по данным корреляционной табл. 19. Таблица 19 х у 111 1 1,1 1,2 пу 6 8 121 - 10 7 - 1301 - 30 7,5 - 111 9 10 nx 181 33 191 n =50 ·- 161 Ух 6,73 1 7,5 1 Составим расчетную табл. 20. Подставив числа (суммы) нижней строки табл. 20 в (**), получим систему 74,98 А +67,48 в+6О,89 С=4IЗ,9З, } 67,48 А +60,89 B+55,l0 С=373,30 , 60,89 A+55,IO в+sо С=ЗЗ7,59 . Решив эту систему, найдем: А = 1 ,94, В=2,98, С= 1 , lО. Напишем искомое уравнение регрессии: Ух = 1,94х2+2,98х+1,10. Легко убедиться, что условные средние, вычисленные по этому уравнению, незначительно отличаются от условных средних корре ляционной таблицы. Например, при х1 = 1 найдем: по таблице g1 =6; по уравнению у1 =1,94+2,98+1,10=6 ,02. Таким образом, найденное уравнение хорошо согласуется с данными наблюдений (выборки). § 1 5. Пон ятие о множественной корреляции До настоящего параграфа рассмат ривалась кор реляционная связь между двумя признаками . Если же исследуется связь между несколькими признаками , то корреляцию называют множестеенной . 276
В простейшем слу чае числ о признаков равно трем и связь меж ду ними линейная: z=ax+ьu+c. В этом сл учае возни кают задачи: 1) найти по данным наблюден ий выборочное уравнение связи вида z=Ах+ву+с. (*) т. е. требуется найти коэф ф ициенты регрес сииАиВипараметрС; 2) оцен ить тесноту связи между Z и обо ими признаками Х. У; 3) оценить тесноту связи между Z и Х (при постоянном У), междуZиУ(припо стоянном Х). Первая задача ре шаетс я методом наи меньших квадратов, причем вместо уравне ния ( *) удобнее искать уравнение связи вида z-z= A (х-х)+ +в<и--У>. где . ;t)! � 1::. . )! с: ---- � )! 00 l"'lt "<t' с: -- )! 1::. . 00 )t с: ""' " �с: 00 ---- �)!00 с: ---- " � )! 00 с: � )t 00 с: ---- � ... . <О ---- )! � с: � - ��С')О> :8!'- ('/) О> :; � ----·-- о о ('/) ('/) "<t' ('/) ""' 00!'- � ('/) ------ О> о О> о lQ lQ � !'- !'- �<О ('/) ('/) ----- �<О00 <О О> 00 00 ""' "<t' - !'- ----- ('/) lQ 00 О> lQ ""' С') lQ !'- ""' - <О ------ С') <D О> а> О> 00 О> � о с<:> <О ---- С') 00 - <О о·lQ С') - lQ �---- �lQ 1 <О !'- ----- ('/) ('/) О> g - � � � - - 277
Здесь rxz• ruz• rхи-коэф ф ициенты корреляции соот ветственно между признаками Х и z. У и Z, Х и У; а.к , аи , Оz -средн ие квадратические отклонен ия. . Теснота связи признака Z с признаками Х, У оценА вается выборочным совоку пны,н коэффициентом корреляции V2 2 Гхz-2Гхуrxzryz+Гуz R= 2 • 1-rxy причем O�R�1. Теснота связи между Z и Х (при постоянном У) , между Z и У (при постоянном Х) оценивается соответ ственно частными выборочными коэффициентами корре ляции: Гхz-ГхуГуz ,xz(у)=v 2 2 (1-Гху) (l- Гуz) Гуz-Гху Гхz ryz <х> = V ( 2 )( :i) • l-rxy l-rxz Эrи коэф ф 1щиенты имеют те же свойства и тот же смысл , что и обыкновенный выборочный коэф ф ициент корреляции, т . . е. служат для оценки линейной связи ме�у признак.ами . Задачи В задачах 1-2 даны корреляционные табл. 21 и 22. Найти: а) rв: б) выборочные уравнения ПJ?ЯМЫХ регрессии; в) ..!lux и '1'\хи · Отв. к задаче 1. а) 0,636; б) Yx=l,17 х+ 16,78, Ху =О,345 у+ + 1 , 67; в) Т)ух =0,656 , 'l'Jxy =0,651. 278
1. у 1О 20 30 40 50 nx 1-1 . Ух 2. у 30 40 50 60 70 nx - Ух Таблица 21 х 5 110 1151 20 1пу 1ху 2 1-1 - 1- 2 15 5 141 1 1- 1О 18 3 181 6 13201 10,25 - 1. 3 161 6 15 116 - 1-1 2 113116,67 10 1151 151 10 / n=50 1 21 129,33 1361 38 11 Таблица 22 х 65195/1251 155 1 185 1 2151 пу 1ху 5 1_. 1-1 - 1-1 - 5 165 4 г�-1 - 1-1 - . 16 1 87,5 - 181 5 141 -1 - 17 l IOI,18 - 111 51 7121- 151 145 - 1-1 - 1-1 1 11 2 1 200 191 21 110 1 111 3 111 n=551 \з4,44,44,76 155\55,36/63,331 101 1 279
Отв. к задаче 2. а) 0,825; б) fi:=0,23x+21 ,78, Ху=2,92у - 27,25; в) 'l l yx .:_o,859, 'l l xy =0 ,875. В задачах 3-4 найти выборочные уравнения регрессии Ух = =Ах2 +Вх+С по да нным корреляционных табл. 23 и 24. Таблица 23 3• . х у 111пу 2 3 5 25 20 , · 1-1 - 20 45 - 1301 1 31 llO - 114849 nx 120 131 149 1 n=lOO Отв . Ух =2,94 х3 +7,27 х- 1 ,25. 4. Таблица 24 х у 1пу 1 2 2 30 11 31 6 1 118 19 nx 1311 19 1 n=50 Отв. iix =0,39 х11 +2,49 х�о .75. 280
Глава дев ятнадцатая СТАТИСТ ИЧЕСКАЯ ПРОВЕРКА СТАТИСТИЧЕСКИ Х ГИПОТЕЗ § t. Статистическая гипотеза. Нуле вая и конкурирующая, простая и сложная гипоте зы Ч асто необходимо знать закон распределения генеральной сов01{упности . Если закон распределения неизвестен , но имеются основ ания пред положить, что он имеет определенный вид (назовем его А), выдвигают ги потезу : г_енеральная совокупность распределена по за- 1<ону А . Таким образом, в этой гипотезе речь идет о виде пред полагаемого распределения. Возможен случай, когда закон распределения известен, а его параметры неизвестны. Если есть основания пред положить, что неизвестный параметр 0 равен определен ному значению 00 , выдвигают гипотезу : 0 = 00• Таким образом, в этой гипотезе речь идет о предполагае мой величине параметра одного известного рас пределения. Возможны и другие ги потезы : о равенстве параметров двух или нескольких распределений , о независимости выборок и многие другие. Статистической называют гипотезу о виде неизвест ного распределения, или о параметрах известных рас пределений. Например, статистическими являются гипотезы: 1) генеральная совокупность распределена по закону Пуассона; 2) дисперсии двух нормальных совокупностей равны между собой. В первой гипотезе сделано предп оложение о виде неизвестного распределения, во второй -о параметрах двух известных распределений. · Гипотеза «на Марсе есть жизнь� не явтrется статисти ческой, поскольку в ней не идет речь ни о виде, ни о параметрах распределения . Наряду с выдв инутой гипотезой рассматривают и про тиво речащую ей гипотезу . Если выдвинутая ги потеза будет отвергнута, то имеет место прот'иворечащая гипотеза. По этой причине эти ги потезы целесообразно различать. Нулевой (основной) называют выдв инутую гипотезу В.о · 281
Конкурирующей (альтернативной) называют ги потезу Н1, которая противоречит нулевой . Например, если нулевая гипотеза состоит в предпо ложении, что математическое ожидание а нормального распределения равно 10, то конку рирующая ги потез а, в частности, может состоять в предположени и, что а =1= 10. Коротко это записывают так: Н0 :а = 1 0; Н1 :а=1= 10. . Различают гипотезы, которые содержат только одно и более одного предположений. Простой называют гипотезу, содержащую только одн о пред положение. Например, есл и '}, , - па раметр показател ь ного распределения, то гипотеза Н0 : '), , = 5-простая. Ги потеза Н0: математическое ожидание нормального рас пределения равно .3 (о известно) -пр остая. Сложной называют ги потезу , кото рая состо ит из ко нечного или бесконечного числа простых гипотез. Напри .мер, сложная гипотеза Н:А. > 5 состоит из бесчисленного множества простых вида Нi :Л = bi • где Ьi - любое число, большее 5. Гипотеза. Н0: математическое ожидание нор мального распределения равно 3 (о неизвестно)-сложная. § 2. Ошибки первого и второго рода Выдв инутая ги потеза может быть правильной или неправильной, поэтому возникает необходимость ее проверки. Поскольку проверку производят статистиче скими метода ми, ее называют статистической . В итоге статистической проверки гипотезы в двух случаях может быть принято неправильное решение, т. е. могут быть допущены ошибки двух родов. Ошибка первого рода состо ит в том, что будет· отверг нута правильная гипотеза. Ошибка второго рода состоит в том; что будет принята неправильная гипотез а. Подчеркнем, что последствия этих ошибок могут ока заться весьма разл ичными . Например, если отве ргнуто правильное решение «продолжать строительство жилого дома», то эта ошибка первого рода повлечет материаль ный ущерб; если же принято неп равильное решение «про должать строительство», несмотря на опасность обвала стройки, то эта ошибка второго рода может повлечь ги бель .людей. Можно привести примеры, когда ошибка первого рода влечет более тяжелые последствия , чем ошибка второго рода . 282
3 а меча н и е 1. Правильное решение может быть принято также в двух случаях: 1) гипотеза принимается , причем и в действительности она пра· вильная; 2) гипотеза отвергается, причем и в действитеJIЬности она неверна. 3 а м е ч а н и е 2. Вероятность совершить ошибку первого рода принято обозначать через а.; ее называют уровнем значимости. На и более часто уровень значимости принимают равным 0,05 или 0,01. Если, например, принят уровень значимости, равный 0,05, то зто означает, что в пяти СJiучаях из. ста имеется риск допустить ошибку первого рода (отвергнуть правильную гипотезу). § 3. Статистически й критерий проверки нулевой гипотезы. Наблюдаемое значение критери я Для проверки нулевой гипотезы используют спе циалыiо подобранную случайную величину, точное или приближенное распредел ение которой известно. Эrу ве личину обозначают через U- или Z, е<;л и она распределена нормально, F или v2 -по закону Фишера - Снедекора, Т-по закону Стьюдента, х2 -по закону «хи квадрат» и т. д. Поскольку в этом параграфе вид распределения во вни мание приниматься не будет, обозначим эту величи ну в цел ях общности через К.. Статистическим критерием (или просто критерием) называют случайную величину К, которая служит для проверки нулевой гипотезы . Например, если проверяют гипотезу о равенстве дис персий двух нормальных генеральных совокупностей, то в качестве критерия К принимают отношен ие исправлен ных выборочных дисперсий: F =sUs�. Эrа · величиuа случайная, потому что в различных опытах дисперсии принимают различные, наперед неизвестные значения, и распределена по закону Фишера -Снедекора. Для проверки гипотезы по данным выборок вычисляют частные значения входящих в критерий величин и таким образом получают частное (наблюдаемое) значение кри терия. Наблюдаемым значением Кнаб11. называют значение кри терия, вычисленное по выборкам. Например , если по двум выборкам найдены исправленные выборочные дисперсии sf = 20 и s� = 5, то наблюдаемое значение критерия F Fиаб11. =sf/s�.= 20/5 =4. 283
§ 4. Критическая область. Область приняти я гипотезЫ. Критические точки После выбора определенного критерия множество всех его возможных значен ий разбивают на два непере секающихся подмножества: одно из них содержит значе ния критерия, при которых нулевая гипотеза отве ргается, а другая - при кото рых она принимается . Крит ической обла стью называют совокупность значе ний критерия, при которых а)-- --0!-�К- кр- -з"К нулевую гипотезу отвергают. Област ью принятия гипо- 9 К , тезы (областью допустимых 6 __..,К,. . кр--!О ______ значен ий) называют совокуп- ность значен ий критерия , при в) ---- ·-- ·- -.. . •- К которых ги потезу принима- Ккр О Ккр ют. Рис. 23 Основн ой принцип провер- ки стат истических гипотез можно сформулировать так: если наблюдаемое значение критер ия принадлежит критической области -гипотезу отвергают, если наблюдаемое значение критерия принад лежит области принятия ги потезы -гипотезу принимают. Поскол ьку критерий К- одномерная случайная вел и чина , все ее возможные значения принадлежат некоторому интервалу . Поэтому критическая область и область при нятия ги потезы также являются интервалами и, следо вател ьно, существуют точки, которые их раздел яют. Критическими точками (границами) kкр называют точки , отделяющие критическую область от области при нятия гипотезы. Различают одн остороннюю (правостороннюю или лево сто роннюю) и двустороннюю критические области . Правосторонней называют критическую область, опре дел яемую неравенством К>kкр• где k кр -положительное число (рис. 23, а) . · , Левосторонней называ