/
Текст
STATISTISCHE AUSWERTUNGSMETHODEN LOTHAR SACHS Ф Dritte, neubearbeitete und erweiterte Auflage mit neuer Bibltographie SPRINGER-VERLAG, BERLIN, HEIDELBERG, NEW YORK- 1972
СТАТИСТИЧЕСКОЕ ОЦЕНИВАНИЕ Л. ЗАКС Перевод с немецкого В. Н. Варыгина Научное редактирование и предисловие Ю. П. Адлера и В. Г. Горского МОСКВА «СТАТИСТИКА» 1976
517.8 3 20 ЗАРУБЕЖНЫЕ СТАТИСТИЧЕСКИЕ (ТЕОРИЯ И МЕТОДЫ) ИССЛЕДОВАНИЯ 3. С. И. ВЫШЛИ ИЗ ПЕЧАТИ: < Введение в теорию порядковых статистик. П. Массе. Критерии и методы оптимального определения капиталовложений. Г. Тейл. Экономические прогнозы и принятие решений. Г. Харман. Современный факторный анализ. Н. Д рей пер, Г. Смит. Прикладной регрессионный анализ. М. Кендэл. Ранговые корреляции. Э. М а л е н в о. Статистические методы эконометрии. Вып. 1. Э. М а л е н в о. Статистические методы эконометрии. Вып. 2. Редколлегия серии: A. Я. Боярский, А. Г. Волков, Н. К. Дружинин, Э. Б. Ершов, Б. Л. Исаев, Я. Б. Кваша, B. М. Кудров, В. В. Налимов, Т. В. Рябушкин (председатель) 3 108°5*-146 115-76 008@1 )-76 ^ перевод на русский язык. * Второй индекс — 10803. «Статистика», 1976.
ПРЕДИСЛОВИЕ Для нашего времени характерно бурное развитие теории вероятностей и математической статистики, которые находят все более широкое применение в науке, технике, экономике и политике. Интерес к этим методам возник давно. Так, например, 250 лет тому назад лондонский врач Арбатнотт, исследуя метрические книги за 80 лет, обнаружил, что мальчики рождаются чаще, чем девочки. Он располагал таким объемом данных, который позволил ему сказать: «Это не может быть случайным»*. Однако для того, чтобы подобное высказывание стало научным фактом, потребовалась разработка специальных статистических приемов. Такие специальные приемы разрабатывались по разным поводам и постепенно складывались в систему методов, которые теперь нам знакомы как методы математической статистики. Предлагаемая книга как раз и представляет собой современную сводку основных методов прикладной математической статистики. Книга в основном адресована экономистам, инженерам, научным работникам и врачам, в работе которых систематически возникает необходимость в этих методах. Материал изложен по схеме от простого к сложному. Вначале рассматриваются элементарные понятия теории вероятностей и описательной статистики. Этот материал занимает почти треть книги и представляет собой хороший вводный курс прикладной статистики для начинающих. Затем приводятся многочисленные примеры различных постановок статистических задач, заимствованные в основном из статистического контроля качества и из медицины. В дальнейшем речь идет о технике проверки статистических гипотез в разных ситуациях, рассматриваются процедуры сравнения выборочных средних, медиан, дисперсий, приемы сравнения совокупностей и др. Следует подчеркнуть, что в данной книге собрано большое число редко встречающихся критериев, таких, например, как критерии Лорда — Диксона, непараметрические критерии Краскела — Валлиса, модифицированный критерий знаков Мак-Нимара и т. д. Одна из глав книги посвящена детальному рассмотрению корреляционного и регрессионного анализа. Большое внимание здесь обращено также на различные процедуры проверки гипотез. Советские исследователи мало пользуются нетри- * Этот факт автор приводит в предисловии к первому изданию этой книги. 5
виальными статистическими методами анализа таблиц сопряженности признаков. Этому важному вопросу отведено значительное место в книге. Наконец, завершается книга главой, посвященной дисперсионному анализу. Через весь текст красной нитью проводится мысль о необходимости планирования эксперимента, но сами эти методы, по существу, здесь не рассматриваются. Однако книга дает неплохой фундамент для их изучения и использования. Работа снабжена уникальной библиографией по различным аспектам теории и приложений статистических методов. От многих известных руководств подобного рода книга выгодно отличается широким спектром рассматриваемых статистических методов, тщательностью и детальностью их разбора, яркими и разнообразными примерами. Поэтому автору пришлось прибегнуть к рецептурной форме изложения и отказаться от доказательств тех утверждений, которые содержатся в тексте. Этим объясняется некоторая фрагментарность изложения. Можно надеяться, что книга окажется полезной всем тем, кто приступает к изучению статистических методов с целью их применения в своей практической деятельности. Для них она может служить начальным учебным пособием. А тем, кто уже пользуется этими методами, она пригодится как справочное руководство, написанное на современном уровне, а также как богатый источник библиографических сведений. Ю. Адлер, В. Горский
ВВЕДЕНИЕ Эти основы статистики как инструмента для принятия решений имеют целью дать математически не подготовленному читателю необходимое введение в важнейшие современные методы статистики. Абстрактные математические рассуждения и выводы тщательно избегались. Основное внимание было обращено на фундаментальные статистические предпосылки и предположения, которые должны быть выполнены при применении тех или иных формул и критериев. Особое внимание было уделено также анализу выборок малого объема и непараметрическим методам. Это учебное и справочное пособие для нематематиков обращено главным образом к практикам, работающим в области экономики и промышленности, специалистам, инженерам, руководителям, учащимся, медикам, а также научным работникам в других областях. Для математиков, интересующихся прикладной статистикой, приводится обзор. В основу положены практические применения. Поэтому значительную часть книги занимают 400 специально упрощенных, полностью решенных числовых примеров, 57 упражнений с решениями, а также большая библиография. Особую роль в упрощении расчетов играют 210 математических и математико-статистических таблиц. Несколько слов о построении книги: после элементарных предварительных математических замечаний в главе 1 речь идет о статистических методах принятия решений. Глава 2 содержит введение в медицинскую статистику, последовательный анализ, биологические испытания, техническую статистику и исследование операций. В 3 и 4 главах выборки сравниваются по своим характеристикам и по распределениям частот. Следующие три главы содержат более сложные методы: измерение связи, анализ таблиц сопряженности признаков и дисперсионный анализ. В "заключении приведены обширная общая и специальная библиография, упражнения, указатель терминов и именной указатель. Для получения общего представления о важнейших статистических методах рекомендуется ограничиться чтением разделов, отмеченных знакома: 1.1, 1.2.1—1.2.3, 1.2.5, 1.3.1—1.3.7, 1.4, 1.5, 1.6.1, 1.6.2, 1.6.4—1.6.6; 3.1, 3.1.1, 3.2, 3.3, 3.5, 3.6, 3.9.4, 3.9.5; 4.1, 4.2.1, 4.2.2, 4.3, 4.3.1—4.3.3, 4.5.1—4.5.3, 4.6.1, 4.6.7; 5.1, 5.2, 5.3.1, 5.4.1—5.4.3,
5.4.5, 5.5.1, 5.5.3, 5.5.4, 5.5.8, 5.5.9, 5.8; 6.1.1, 6.1.4, 6.2.1, 6.2.5; 7.1, 7,2.3, 7.3.1—7.3.3, 7.4.1—7.4.3, 7.6.1, 7.6.2, 7.7. Поскольку последовательность изложения автором несколько нарушена — в отдельных случаях не удалось избежать ссылок на последующие разделы, — для более строгого представления целесообразно книгу прочесть по крайней мере дважды. Для понимания и для применения методов в тексте приведены многочисленные примеры — иногда нарочито простые. Эти примеры (в известном смысле игра с цифрами) часто носят учебный характер и служат больше для развития иг- рово-экспериментального мышления, чем для обработки приведенных данных, которая — при частом применении расчетных методов — интересна главным образом специалистам. Рекомендуем читателю все примеры, данные в качестве упражнений, рассчитать самостоятельно, а также выполнить некоторые упражнения, приведенные в конце книги. Автор будет благодарен всем читателям, которые обнаружат недостатки и сообщат свои впечатления, замечания или пожелания по улучшению книги. Лотар Закс
ВВЕДЕНИЕ В СТАТИСТИКУ Основные задачи статистики: описание, оценивание, решение. Каждый из нас на собственном опыте знает, что не может быть установлено истинное различие между мнимым и действительным больным. Обычно мы устанавливаем эту связь, различие или сходство, с помощью специальных знаний или по так называемому «впечатлению». Ученый, который открыл некоторые новые явления, зависимости, тенденции, эффекты и на них построил рабочую гипотезу, защищает ее от предположения, что все эти явления и эффекты обусловлены случаем. На вопрос, можно ли наблюдаемые явления рассматривать только как случайные или они являются закономерными, отвечает математическая статистика, методы которой становятся характерными для современной науки. С помощью статистических методов можно получать ответы на вопросы и проверять гипотезы. Например, сколько человек нужно опросить перед выборами, чтобы получить примерную картину результатов? Оказывают ли школьные занятия спортом два часа в неделю тренировочный эффект на сердце и легкие? Какую зубную пасту из нескольких рекомендовать как профилактическое средство против кариеса зубов? Как зависит качество стали от ее состава? Новая продавщица повысила дневной доход до 300 ДМ (West). Процент выздоравливающих, характерный для некоторой болезни F0%), увеличен с помощью лекарства А до 90%. Искусственные удобрения К» К2 и К3 показали при испытаниях одинаковый результат. У супругов наблюдается сходство голосов. Статистические методы имеют дело с эмпирическими данными (количественной информацией) из окружающего нас мира, с их получением и обработкой: описание, оценивание и обсуждение; целью является подготовка решения. Статистика появилась в XVIII в. с выходом книги «Lehre von der Zustandsbeachreibung der Staaten», в которой были собраны данные о населении, армии и ремесленниках. Из этого возникла и развилась описательная (дескриптивная) статистика, задачи которой состоят в том, чтобы описать наблюдаемые состояния и процессы; для этого служат таблицы, графики, соотношения, индексы и типовые характеристики как мера положения (например, арифметическое среднее) или мера рассеяния (например, дисперсия). Аналитическая статистика на основании наблюдений устанавливает общие закономерности, которые справедливы и вне области на-
блюдений. Она развилась из шолитической'арифметики», которая занималась главным образом регистрацией крещений, браков и смертей, чтобы оценить соотношение полов, рождаемость, возрастной состав и смертность населения. Аналитическая статистика базируется на теории вероятностей у которая описывает математические модели случайных или стохастических экспериментов. Примерами стохастических экспериментов являются: бросание игральной кости, азартные игры и лотереи всех видов, пол новорожденного, сегодняшняя температура, урожай, время горения лампы накаливания, показания измерительного инструмента при опыте, короче, любое наблюдение и любой опыт, в которых результаты подвержены случайным колебаниям или ошибкам измерения. Почти всегда сами наблюдения или результаты измерений менее интересны, чем упорядоченная совокупность, которая включает в себя эти наблюдения или измерения. Например, вероятность получить 6 в одном бросании игральной кости, угадать 6 цифр в цифровом лото, число рождений мальчиков в ФРГ в 1968 г. и др. Во многих задачах, связанных с повторяющимися испытаниями, нельзя провести все возможные испытания или наблюдения, входящие в так называемую генеральную совокупность, а можно проделать лишь доступную, выборочную часть этих испытаний. Чтобы оценить вкус вина, достаточно выпить один стаканчик. Эта выборка дает представление о частоте и составе интересующих нас признаков в генеральной совокупности, которую мы не можем исследовать всю по финансовым, временным или принципиальным причинам. При этом предполагается именно случайная выборка, в которой каждый элемент имеет равный шанс быть выбранным (попасть в выборку). Разумная или представительная репрезентативная часть торта — это не тесто, не начинка, не украшение, но кусок торта. Случайные выборки в цифровом лото получаются с помощью механических устройств. Вообще для получения случайных выборок служат таблицы случайных чисел (элементы нумеруются и выбор элемента осуществляется, когда в таблице выпадает его число). Случайным образом полученная выборка имеет преимущество: ее статистические характеристики будут содержать только неизбежные случайные отклонения от генеральной совокупности. Их можно оценить, поскольку они не искажают результата и при многократном повторении усредняются. При неслучайном выборе могут появиться так называемые методические или систематические ошибки, о величине которых, как правило, никаких данных получить нельзя. Особенно это важно при оценке случайной ошибки и при проверке того, характерны ли наблюдаемые явления для генеральной совокупности или их можно рассматривать только как случайные, — при так называемой проверке гипотез о генеральной совокупности. При постановке задачи по статистической проверке гипотезы необходимо уделить внимание выбору наиболее пригодных измерительных признаков и получению оптимальной по стоимости выборки, иначе говоря, плану эксперимента. Вообще цепочка (см. с. 11), в которой 8Десь для простоты показана только половина обратных связей, продолжается и решения содержат в себе уже подготовленные вопросы: 10
Новые проблемы Предварительная информация и постановка вопроса Новые проблемы Модель 1 Статистическая модель: план эксперимента Предварительные исследования: проверка плана эксперимента, оценки и модели Проведение эксперимента, получение данных: измерение и счет Обработка данных и проверка гипотез Интерпретация: решения или заключения является ли значимым, по существу, полученное заключение — обратный перенос на вход задачи (см. с. 513—514)? Для нас важно то, что на основании поставленной задачи делается предположение о структуре, лежащей в основе модели, и соответствующих статистических моделях. После проверки соответствия данных наблюдений и статистической модели оцениваются с заранее заданной статистической надежностью характеристики для описания генеральной совокупности, так называемые параметры, и проверяются гипотезы о параметрах. В обоих случаях результатом является вероятностное суждение. Этот и другие способы образуют ядро анализа данных, выполняемого на основании суждений об измеряемых величинах и их частотах, необходимых для многих областей техники, экономики, политики и науки.
0. ПРЕДВАРИТЕЛЬНЫЕ ЗАМЕЧАНИЯ Этот раздел посвящен повторению некоторых элементарных математических сведений, которые, за редкими исключениями, составляют часть знаний, требуемых в средней школе. Этих знаний вполне достаточно для понимания проблем, которым посвящена данная книга. 0.1. МАТЕМАТИЧЕСКИЕ СОКРАЩЕНИЯ Язык математики использует символы, например буквы или другие знаки, для точного и сжатого отображения существа дела. Числа обозначаются, как правило, малыми латинскими буквами (а, Ь, с, d, ...) или, когда чисел очень много, —аъ а2, ..., ап. Некоторые другие важные символы приведены в табл. 1. Таблица Обозначение а = Ь CL <^ Ь а ^> b CL ^ Ь a>b a^b axb афЬ 1. Некоторые математические отношения Значение а равно b а меньше, чем b а больше, чем b а равно или меньше b а равно или больше b а примерно, приближенно а не равно b равно b Пример 8=12-4 4<5 6>5 Он зарабатывает не больше чем. ..DM Он зарабатывает не меньше чем...DM 109,8 ^ 110 109,8 ^ 110 4^6 Для «х больше, чем а, и меньше или равно Ь» записывают: а <С х ^ Ь. Для «х значительно больше, чем а», записывают: х ^> а. 0.2. ВЫЧИСЛЕНИЯ Предполагается владение четырьмя арифметическими действиями: сложением, вычитанием, умножением и делением. Однако следует коснуться следующего определения: вычислительная операция — это пра- 12
вило, по которому из двух чисел образуется новое число, например сумма. 1. Сложение. Слагаемое + слагаемое = вычисленная сумма [5 + 8-13]. Сводка знаков четырех арифметических действий Вычислить— это значит из нескольких чисел получить одно новое число. Каждый из обычных арифметических знаков (+; —; .; :) символизирует правило вычисления: + плюс, положительный, знак сложения, — минус, отрицательный, знак вычитания, f ... раз, знак умножения, : поделенное на ..., знак деления. Результат каждого вычисления должен быть оценен перед началом вычисления, затем дважды рассчитан и проверен контрольным вычислением. Например, 4,8+ 16,1 примерно равно 21, точно—20,9; контроль: 20,9 — 4,8= 16,1; или 15,6 : 3 примерно равно 5, точно—5,2; контроль: 5,2 * 3 = 15,6. Для последовательности вычислений с четырьмя арифметическими действиями справедливы два правила. 1. Умножение и деление выполняются перед сложением и вычитанием. Примеры: 2 + 3 * 8 = 2 + 24 = 26; б в 2+ 8 : 4= 12 + 2= 14. Положительные числа (+1, +2, +3, + ...), нуль и отрицательные числа (—1, —2, —3, — ...) образуют целые числа, для которых любое вычитание имеет результат (например, 8—12 = —4). При умножении и делении следует обратить внимание на правила знаков: + •+ = + } Одинаковые знаки + — — 1 Разные знаки + :+=+/ дают плюс + : — = — / дают минус = _j (-8):( + 2) = Модуль числа, обозначаемый двумя вертикальными линиями, равен абсолютному значению числа и всегда положителен: |_4| = | + 4| = 4. 2. Вычисления в скобках выполняются вначале. Если стоит несколько скобок друг за другом, то начинать нужно с самой внутренней. Перед скобкой обычно опускают знак умножения, например: 4 C + 9) = 4 A2) = 4 s 12 = 48. Деление часто обозначают черточкой, например: А = 3/4 = 3: 4 = 0,75; 4 4 [12—(8-2 + 18I = 4 [12—A6+18)] = 4 A2—34) = = 4 (-22) =-88; 12|"ii=l— l] = 12f—-l] = 12C—1)=12B) =24. 2 J L 2 J 13
Если необходимо образовать сумму чисел хъ х2, ..., хп, то для этой операции используют следующий^символ: 2 — прописная греческая буква «сигма», здесь означает «сумму»; или полностью: г есть сумма всех чисел Xt от i = 1 до i = я. Индекс первого слагаемого стоит под знаком суммы, индекс последнего — над знаком суммы. Индекс i у х указывает, что при его изменении изменяется и сама величина jtj. Обычно суммирование выполняется от индекса i = 1 до i = я. Для такой суммы справедлива также следующая запись: 2. Вычитание. Уменьшаемое — вычитаемое = вычисленная разность [13 — 8 = 5]. 3. Умножение. Сомножитель X сомножитель = вычисленное произведение [2x3== 61 Произведение двух чисел редко обозначается знаком X между числами, потому что его можно спутать с буквой х. Обычно умножение обозначается точкой между сомножителями, а иногда и она опускается, например 5-6 или pq. Задание 1,23-4,56 записывают в США 1.23-4.56 или A.23) D.56), а в Англии и Канаде— 1-23.4 -56 или 1-23x4-56. Запятая в этих странах используется для наглядного представления больших чисел (например, 5,837-43 или 5,837.43 вместо 5837,43). 4. Деление. Делимое/делитель = вычисленное частное [6/3 == = 2] (делитель Ф 0). 5. Возведение встепень. Произведение п равных сомножителей а есть степень ап и читается как «а в я-й степени», или «/г-я степень от а». При этом а — основание, а п — показатель степени. Основаниепоказатель степени = степень числа. 5 • 5 • 5 = 53 = 125; 2-2-2-2 = 24= 16 (возведение в степень). Вторая степень а2 называется квадратом числа, так как а2 задает площадь квадрата со стороной а, и читается как «квадрат о» или «а в квадрате». Третья степень называется кубом числа\ а3 задает объем куба со стороной а. Особое значение имеет степень числа десять. Ее применяют при приближенных вычислениях, чтобы получить представление о порядке величины, а также для сокращенной и наглядной записи очень больших и очень малых чисел: 100 = 10-10 = 102; 1000 = 10-10-10 = 103; 1 000 000 = 10е. Поясним некоторые правила возведения в степень примерами: ат-ап = ат+п 24-23 = 24+3 = 27 = 128; ат:ап = т~п 24: 23 = 24~3 = 21 = 2; 14
62.32=6.6.3.3=6.3.6.3=F-3J=182=324; ат: Ь™ =* (—) Приведите пример; 52.52.52==52-3==56=: 15625; а-л = — 10~3 = — = —*= 0,001; а* 10* 1000 а0 = 1 для а Ф 0; — = аб~б = а0 = 1 (ср.:0а = 0 для а > 0). Эти правила справедливы, если *т и /i целые числа. Если а > 0, то приведенные правила справедливы также и для дробных показателей степени (т = —, я — —)' 6. Извлечение корня. Вместо а1/" записывают уЛо1 = уЛа и читают «корень я-й степени из а». При п = 2 (квадратный корень) записывают /5". Корень ^ — положительное число, которое после возведения в степень п дает в результате подкоренное число: [У~а\п = а. Обычно используют следующие названия: показатель корня Т/подкоренное выражение = значение корня; >^25 — V25 ^ 5 (извлечение корня), тогда 52 = 25. Извлечение корня (знак V —стилизованное г от лат. radix — корень) производится с помощью таблицы, логарифмов или вычислителей (см. с. 16—23, а также итерационные способы на с. 29—30). d Приближенная формула: у а2 ± d ~ а ± для d < а2. Например, необходимо рассчитать V1969, то из табл. 4 (см. с. 28), второй столбец, получаем 1936 = 442, т. е. У1969 = У442 + 33 « 44 + + 33/88 » 44,375 (точное значение 44,3734; ошибка 16/10000), или У 0,01969 = У0,0196 + 0,00009 = 0,14 + 0,00009/0,28 = 0,14032. Для вычисления кубического корня может быть использована приближенная формула VcP d= d « а ± d/3a2. Некоторые формулы и примеры для вычисления корней: Уа \ [ а Л. |^= J/ у; а й ^^ /"f"= ^^ = 5; ? 12 7. Вычисление логарифмов. Когда а — положительное число и у — произвольное число (>0), то имеется единственное 15
I I N "^ *—« О N Ю ^ CM •—• О OOONNCO CO CO CO CM CM' CMCMCMCMCM ^ _< ,-н ,—. .-^ cococococo cococococo eoogg6^ Й?см22 ??12:2:2 COCOCOCOCO COCOCOCOCO OiCOrfCO^ О 00 N CO CO Ю^^ФСОСМ CMCMCMCMCM W^^>-• i—' '—' —' •—« —H »-« cococococM cmcmcmcmcm iP^rt0500 N«oio^co ^^S^Z^^ CMCMCMCMCM »—' О N CO Ю трСОСМСМ'—' '—* О О О О cmcmUcmcm (NCMCMCMCM мопсом —* — < СОСОСОСОЮ 00 00 t"- CO CO oo ooo ooooo ^ Tt* CO CO CO CO CO CM CM CM CM CM CM CM CM ^ CO 00 CM COO ooS o>oooo NWOCOCO ©CM I- - _ CM CM CM CM CM -* rf 00 rh CM CO CO O) 00 CO CO CO CO CO CO -O CM Th -CM COO 8 со со с f oo см с t*- CO"**1 CM I4- -^ CM CM CM CM ¦-<1ЛО5 СОЮ OOOON СО""Ф COWNO) COWNO) со со со со со 2 «• о. 2 о ч со 2 в* >сосоооо »-«смсмс COO4—« Th Ю N 00 00 С •^ CM 00 h- CO Ob 00 CO CO t4- CM COO COCO O5 NOOO lONOO lONOO^ O>CM ^* t« O5 i-HCMCMCMCM OWONN СО СО со тр CM y—• СОЮ ?-- Oi CO CO CO CO CO )Огр О ооооо NO СОЮЬ ооооо см со о со со СМ N О СО ^ см со о со со и-нЮЮСО COO ЮО5СМ OiCM ¦* COO> ^см см см см союосм о ONCONO O^^ ^ COO ^-¦см см см см О) Ю »—* О О5 CO CO CO CO CO со со со со с I cO CO t** 00 «—• Ю О5 CM Ю ^н CM CM CM CM COCOOi-н CO '—• Ю О5 ^* 00 ooooo 00 ^ OO CO см со о со ю ~-< Ю 00 CM Ю о о o^ ~* h-CM ОЮ С ^CM 00 CM I oo *— cococ CMCM CMC ю N0 ОС сое « COC 5 COC 2 >ЮО C0N )ОООО ¦*00О СОЮ _ >оооо о CO CM "tf* COCO 00 О COOCM со со оо со см rf Ю CM NO »-< см см см см О 00 О N О О СО СО N i—« N О СОЮ 00 '—i СМ СМ СМ СМ CO ^* xO oo CO CO Ю CO со со со со ^t COO >СОСОООО СМСО^Н4 } xt^ 00 ^^ t44* ^"^ LO СГ5 С !8833 SSSJ N > *—< о со со ¦•fes интС СО 00 COtOlOOO NO см с >^,^ ^СМСМСМСМ irh NCM ICM^O D CO CO CO 8SSSS Ю CONGO О ^см CM CM осмео^ CM CM CM CM CM 16
¦-«—нООО 0H0000000 —« —< —* О О 0000505 0H0 00 00 00 0005 0H5 0H0000000 t-~ t--CO CO CO 000HH) 0H0000000 сососососо cocoicicic со 050000001^- t>- t*» Is- СО СО СОСОСОСОЮ iClClClClC 1>ОСОСОСО COCOiClClC LClClClCrt« т^^сососо сососососо сососососо со СОСОСОСОСО СОСОСОСОСО СМСМСМСМСМ СМСМСМСМСМ CM СМ СМ СМ СМ СМ см см см см-* СО 00 СО соою 33 ) Г*^ ю ооо см см оо О СО Is- О СМ О) О —' СО "**• Tj<iCiClCLC —•О СО 0H 1С С4» 00 О) »-"* IOCDNQOO 1С 1С 1С 1С СО t4*- СМ 1С Ю С со со со со с 00 tM COCO—« СО t"** 00 00 О) О) со со со со со ^* О ^ СМ оо "^ О) т*< см*1 Ю t 0H0 ЮС СО 1Л t С 1С COt COt^C 1С 1С I г^ см 2; ic со со со со ^о со со Is* t** оо О) оо со со со со со 5 t^ 00 О) со со со ] О) О) Tt* CO ) CM ^f 1С t4" hCM CO-* O) CO CO O) O) *~ CM CO "Ф 1С 1С 1С т^ 1С CM С -и СОЮС 00 O) O) O) O) CO CO CO CO CO >rooc ) со со с CO ЭСМ <. ЭСОС ?см с CO CO 0H00 ^ 00 •—• 1С Г*- 00 O) «—• CM CO "ф^ 1С 1С 1С \9i JESS 1С t4» t**» C CO t 1С CO t^ CO CO CO 1С ) CO 00 >tM CO 1 O)C CM < О—Ч O)C0l ~O) »-< CM ^ I ICIC1CICL 5 CO CO CO CO Is» со ic Tf со 1С CO t4* 00 O) со со со со со ^ О CM 00 < OCM С0ЮС t С CM ^ 00 050CM С f * 1С1С1 !i8i ЭСОСОС —i CO 0HH0 COlCrt« CO CM 1С CO t^OO O) CO со со со со со о — cot > 0)ОСМ< 1С t^lC»-* < CM O) CO 1С" rf TF 1СЮ1 cococococ ^н cOO)C 11 CO^^t 5(^0)OC h< 1С CO 00 Э 1С 1С 1С 1 —¦00 COlC-ч сосочФ<^ -ч со со со со с )NooOi ) CO CO CO t^.ic—. i^v СЛ= СО4^ С CO"* -^ rt*' fvCC Is» О) О «—« CO ^ ^ 1С 1С 1С i-i CO CM 00 —< ¦^cooo O)—• ^CMC COCOC 1С «ОГ-- 00 O) сососососо
I I s oooo S s s S S S CD CD CO COS COCO ЮЮ СОЮ Ю со со ч* со со CO CO CO CM <N CM CM CO CM CM CD CO CO CO CO ЮЮЮЮЮ ЮЮЮ"^ ^ «^ rf rf Tf r^ CO CO CO CO CO CM CM CM CM CM CM CM CNJ^ —, cococococo cococococo CO Ю Ю Ю Ю СОСОСОЮЮ ЮЮЮЮЮ ЮЮЮЮЮ cococococo cococococo cococococo cococococM смсмсмсмсм СМСМСМСМСМ СМСМСМСМСМ СЯСМСМСМСМ u S а. &>*& Oi СМЮ 00 Ю^ OO F —* см со со тр 00 00 00 00 00 CM 00 CM COC> 00 ^ "-¦* Ь-- со *—« см со со "^ 000000 0000 O — -4 ^-* О о со сч оо со Ю Ю СО СО t"— 00 00 00 0000 §31 S S S СО 00 »-« CM COCO Tj« 00 0000 0000 rt< Ю CD 00 00 00 ю in» sco Ю CD COS 00 00 00 00 CMCOOCMCM rf CM ^СЛ S O—« CM CM CO ss s s s 00 CM ^ ^ ^^ CO 00 CO »—< CM CM CO s ss s ^ 00 TF OJ CM ЮСМ О SIO ^ Ю CD COS soscMiO Рююсог ю со со ю см см сл со со о ss soooo 00 O) O5 00 CO 00 00 сл со со ss soooo СЛ lO СЛ СО СО со со сл со см оооо со оо оо СМ 00 C0SO со см слю см »-н СМ СМ СО ^ оо оо оо оо оо оо^ососч rf Ю СО СО S 00 00 00 00 00 «rj* О СОЮ С СМ— СЛ SI s ss t * Ю CO CJ> ^ 00 CO —< 00 CO CO ^ ЮЮ COS ©СМСМ-ч СЛ 1—. C20 Ю CMO0 00 00 СЛО О S SSOO00 СО CM S»-« ю см оо ю • CM CM CO CM CM COTf со 0000 00 00 COSSSCO SCOCTЮ*-• оо оо оо оо со союю-^см 00 ОО СЛ ОО S S S00 00 СЛ Ю О 'Ф t ^* ч-^ 00 ^* С ^^ СМ СМ СО" 00 00 00 00 С о-* — —-о S СО СЛ Ю~н ¦^ ю ю со s оо оооо оооо 2 5 1 I СМ та СО 00 00 SIO сл coco о s S СО СЛ О О S S S00 00 ) —« СОЮЮ1 слогосл 00 COCO SCO СЛ _ ss soo CO CM S—«1O со о со со сл -и <N CM CO CO 000000 00 00 ¦^ юю cos 00 00 00 00 00 s сл сл сл 00 ю —« s со сл rf ЮЮ COCO OO 00 OO 00 00 OCOOCO^ СЛ SCO"^1 CM ело»— см со CO S SSS СЛ Ю Ю 0 см сл со см 00 000000 00 00 ю ю со со 00 000000 O*-« CM CO^ ю ю ю ю ю lOCOSOO СЛ ю ю юю ю CO CO CO CO CO ю cosoo сл CO CO cO cO CO 18
*tf Tt<Tj<Tl< CO 00 cococococo cococococo f^ cococococo cococococo cococococo cococococo cococococo со cococococo cococococo cococmcmcm смсмсмсмсм c^cmcmcmcm ю CMCMCMCMCM CMCMCMCMCM CMCMCMCMCM CMCMCMCMCM CMCM<NCM<N rf CMCMCMCMCM CMCMCMCMCM CMCM*-"-<'-< —<~н,-ч~н.— —< ~-н ^н ~н *-. CO OOOOO OOOOO —« Э-^1Л СЛС 5 CO CO 00 СЛ - _ , . - CO 00 CO 00 ) оо со ел ел ел ел ел ел (DC0ONC0 CO CO 00 CM Г СООО СМ Г- ^1 СЛ1О—СОСМ Г^СМООСООО Г--00СЛСЛО О — -нСМСМ 00 00 00 00 СЛ СЛСЛСЛСЛСЛ 5 СЛ СЛСЛ 1—< CO ICCNOO 00 CO CT> СЛ O> О О) О) О) О) О) <* СЛС ел ел ел ел с 1С СМ СЛ ^ ( 00 "^ СЛ 1О С 0^^ 0^^ 0^/ ОС^ С СО N(N О «-* *-< CN С\| СЛ О5 C7i СЛ О> ю CM СО «"¦f Oi СО СО С?) Г4-1-1 со — ю lO CO CO t4- t^- О) ел ел ел ел ООСЛОО COTf—«СО4*1 h-CMCO—« СО«(ООЮ со'&^т mcocoh-t^- слсл СЛСЛСЛСЛСЛ СЛ СЛ С 00 00 00 ел ел ел ел ел ел ел 5СОСЛСМС0 ЮЮЮЮС0 CMC. )OiO-h@ —* СО *—< СО *—« С0ОЮО1 _> ^-, ^н СМ СМ СО СО *Ф ^f Ю Ю СО СО t4- t4^ ел ел ел ел ел ел слслслсл слслслслел ^^ш юсоо ел "^г оо со t t>- со 00 ел е ел ел ел ел е со ю см СОСМОО ^ОООО ь-00 00 ел ел оо оо оо со оо сосм г-»-» ю со со t-см со t4-» оо оо ел ел см ел ел ел ел ел СМ Is» CM t^ •-* 00 CM t4^ '-н СО ь оо со ел i^CO ^-iiO00'-*C0 ^ЮЮ'Ю^ СМ О С > СО СМ Is*- СО 00 СО СЛ Tj* СЛ-^ СЛ "^f СЛ тр СЛ С ~О 00 СЛ 3) СЭ СЭ *~" '~н СМ СМ СО СО "^ **J* LO Ю С °0 00 СО 00 00 СЛСЛСЛСЛСЛ СЛСЛСЛСЛСЛ СЛ СЛ С 5—' Г--СО00 СМ СО 3 СО Is- СЧ СО^- Ю Э t4" t^» 00 00 СЛ СЛ 5 ел ел ел ел ел ел С5 •¦"< СМ СО ^^ 1О СО t4» 00 СЛ С5 *~* СМ СО ^Ф оооооооооо сооосооооо слслслслсл 1Л COh-ООСЛ ел ел ел ел ел I I со .л 53 ex eg 81 ч о ъ <D CD Л СО о 3 «2 5 я I си 5^ со % 7 8 4 II IH 150 Н~ 1 g 9 I о и s & II 19
00 N. CNCNCNCOCO СО СО СО СО СО СОСОСОСОСО СОСОСО eN CN CN CN CN CNtNcNCOCO СОСОСОСОСО СОСОСО CNCNCNCNCN CNCNCNCNCN CNCNCNCNCN CN CN CN CN CO СОСОСО ^^^^n^| csi С* CN <N <N CNCNCNCNCN W(N(N(N(N CN CN CN ^,^^н_^ ^m^^^m^h -*CNcNCNCN CNCNCNCNCN CN CN CN _*_ч_«^^ _^,-«_«,-, ^^^^^, ,-*^,ч^,_ —«CNCN О'ООО-н .-,_«_-,,-_ ^^н^^_ ,^__^_ _ч^_ ooooo ooooo ooooo ooooo ooo —«ЮСЛт*«О> COCNONCO lOlOCONO МСООЮ^ 00 CO т** М^Фф>н "Ч* N О5 CN Ю 00 »—< rf t4-О rj< N <—• ^f 00 '—• Ю O^ О О О О •—• •—• «—• »—• С^ (N С^СОСОСО^ ^^ЮЮЮ СО CD СО O5WN-HN СОСЛГ^ЮСО CNCNCO^CO Oi CN I"» CM 00 ^ (N О »-н rf CO C2> «—• т|*СОО5СМЮ 00 •—< Tf h- О СО Г^- О rJ4 t^ -Н1ЛО) OOOO—< ^-.^н^^счкм (NCOCOCO^ ^тМОЮЮ СОСОСО С00"^*0>т|* OS^WO ОЭ050'—<C0 LOO^COOO4^ «-"OO N <-<^ @ 00*4 tJ* <O O> CN Ю t-- О ^ h* О СО СО О СО t4- i—t Tf 00 OOOO—* ^м ^-i^-«C4<N OJCOCOCO"^ ^ "^f Ю Ю Ю СОСОСО чфОООЧСОС^ 00^"—<СЛГ^- COCOt^OOO CNCOO Ю О f4* ^* CO ••^ CO f О 00 ^"^ CO CO O^ **"^ ^^ t4^ ^У CO ^O ^^ CO CO c1b3 CO Г4^ f'_',^ ^J* 00 CM Irt O5 **1* O^ 1Л *"^ O5 CO lO ^* CO ^* 1Л CO СУ5 CM CO *~* Г4** CO ^^ O5 i—i CO Ю 00 О COCOOO'-H^1 t^ О CO CO CT> CN CO O> CO CO О ^ t*- O О О О i—• ^^^^i—i cN CN CN CO CO CO CO ^М'тСЮЮ СО СО СО СЭ CO I"*» *—< t4» CNCT>CCCOcN ihOO'-'CO СООЭСООССО ON 1Л О СО Ю 00 О С0Ю00^"Ф NOCOOO) CN Ю O> CN CO OWN О О О О «—• *-^ *—| ^^ CN CN CN СО СО СО СО "^ "«f rf Ю Ю СО СО СО NOTfOirf' ОСОСО^^О 00NN00O CN Ю О5 "^ О СО СО -* О СО Ю N О СОЮОО'-^СО СО О5 CN Ю О5 CN Ю 00 CN СО О СО Is» ОООО—* *^ -^ -н CN CN CNCNCOCOCO trf^ifliO Ю СО СО IO00CNC0CN СОСООООСО lO^TplCN O> CN СО —* СО CN O5 N OWIOSO CNlOOOOCO COOCNIOOO —< Ю 00 CN Ю О> CN CO О О О О »—| -и «-* ~ч CN CN CNCNCOCOCO rf ^^«ЮЮ Ю СО СО CN СО СЗ т}* О^ 1Л »»н 00 1Л СО CN 1~^ »~ч CN ^* СО О^ СО t"** CN СР> СО СО О CN Ю N С75 CN Ю N О СО СО ОЭ CN Ю О0 «—' ^ 00 »-• Ю О0 CN СО ООООО »-* —н »—i (N CN CNCNCOCOCO rj< Tt* rt4 Ю Ю Ю СО СО OCONCNCO CNOOIOCNO О 00 00 О> О СО Ю СЛ ^ С75 Ю CN О OCNTpNGi CN^NOCO 1П00»-^^00 *—« ^ N i—< ^ OOCNCO »-t »-н i—i CN CN CNCNCOCOCO ^'^'tlOlO IO CO CO а и s ar co H 20
coco COCO COCOCOCOCO COCOCOCOTh ЮЮЮЮЮ ЮЮСОСОСО COCOCOCOCO O> ЮЮЮЮЮ ЮЮЮСОСО 00 ЮЮЮЮЮ t- CM CM CM CO CO CO CO COCOCOCOCO COCOCOCOCO rt< Tt4 tF ^ Th Tj* t*< т^ Tt< Tf* CO CM CM CMCMCMCMCM CM CM CM CM CO COCOCOCOCO COCOCOCOCO COC0C0'«t'^ Ю CMCM CMCMCMCMCM CMCMCMCMCM CMCMCMCMCM CMCMCMCOCO COCOCOCOCO ** "CM CMCMCMCMCM CMCMCMCMCM CMCMCMCMCM CO ooooo OOOO ~н CO00—«Ю»-н 00 00 CD CD CD t4- tJ< COCO со oo со oo с CM CM CM CM «OCDco cd со 00 CO CD rf О Tf -<3< Ю00СМ CO CM 00 тр —¦ ю coco t*- oo CM CM CM CM CM CO CO Ю ^н 00Ю oo ooooo CN CN CO CO CO ) 00C CM CM CM CMC СЛ 00 CT> CM 1 - -> —• r- •* <_ > CO 00 >lST* >O —• 00 эсосо CM CO О "^ CD CO 56 - ' 00 0000 CD CD CN COCN о со oo 00 00ЮСО 00 CO CN t*- CN t^-CN CM CM CMCM CM lO 00 CM 00 lO CM CO CO "^ ^* CM CM CM CM CM tJ4 ^—h CD CD »™* COCO CD COTt* 00 CD CD О »—• CNCN CN CO CO см см союс CM CO О ^ С - ' ooooc t CD COOOO 00 00 CN CN CN CN CN OCO O-CN CD t-- CN O-CO 00 CNCNCNCNCN 00 ^* CN CN CO ЮCN CD COCO 00 CD CD О «-^ CO CN CNCN CO CO 5 —* ^ 00 CN >^ OOCNtN- - 00 00 CD CD 00 ЮС0 COCO ^м со—• CO—i CNCN CNCNCN CO ~-«^-<N 00 CN CO CO Tf Tt< CN <NCN CNCN —« о —* со со "^f О CO CN 00 lOCOCONN lOCOCONN CN CNCN CN <N 1— h-Ю ЮсО CM CM CM CM CM CD CM CO-^ l^ Ю —< COCN Is- CM CO CO *^* *^t* см см см см см Ю Tt* Ю CO О со cd io "-^ oo CMCM CM CM CM * CDOOCD 00 CD CD О «-* см см см со со О О —«CMIOCDC -^ Ю CTJCON^C IS- Г- Г- 00 00 CDC CD CO^ CO < о ю о ».o с о o-^—«c см см см см с см см см см см CD О CO тГ — I>- CONN см см см см см OO rj< CM —'CM 00 CD CD О —• CO см см см coco oo см is- -*i t>- 00 00 CDC ^ —• CD 00 00 О Ю CD rf CD CM CM CM CM CM CD *-* Ю О CO CO CM CM "^ C*- тРОЮ-нСО CMOO^OCO см со со ^f ^ ю ю со is-1^. oo oo cd о »—* см CMCMCMCMCM CMCMCMCMCM CMCMCMCOCO CO CD CO COO 0000 CDO < CM ^ COO ^ 00 CM CO—1 Ю t4^ 00 00 CD CD о сотр coco О ^ CD"^ CD о о о —* —* см см см см см CM CM CO^ "f CM CM CM CM CM 00 CO CO 00 —* —* t^- CO CD CO Ю Ю CO CO l^- CM CM CM CM CM Ю ~« 00 l^ t^ CM CD Ю CM CD 00 00 CD О О см см см coco 00O CM I г*-см coc r- oooo с IS >CD ЮСМСЛ 00 00 CD "^ 00 CO 00 —*CM CM CM CM CO CD ^ф CD lO ^^ t4* CO CD IO ^-< 00 lO CM СЛ CM CM CO CO ^^ ^O l-O CO CO C4** 00 00 CD CO C? ^^ CMCMCMCMCM CMCMCMCMCM CMCMCMCOCO Ю CO Г^ 00 CD CM CM CM CM CM о — см со ^ COCO COCO CO LOcOt^-OOCD О —« CM CO " COCOCOCOCO ^TfTf^^ Ю CO t^-00 CD tj- rh ^ rf Tf 21
со со со со со ю toio со со Г-00 00 00 00 со со со со со 00 СЛ СЛ СЛ СЛ Г— 00 00 СО 00 0H000 ~*~4~, 00 СЛ СЛ СЛ СЛ О О О t-t-oooo oo оооосл g к 3 I «*• юю сою ю ю ю ю ю cO со со со cO cocot-t-t- Ю Ю Ю CO CO со со со ^ со COCO CO^t" Tf t-r-1- CO CD CO CN CM CM CO CM —< CM CM CM CM см со со со со CM CM CM CM CM со со со со со CM CM CM CM CM COCOCOCOCO CMCMCMCMCM *—< ело "US см t-со см см СМО СЛ00 t- CO Is- t- 00 СЛ со со со со со ;s?§t . . . jfe )MON< - о t- c- - 5Г-С t-COC ~-t CO I w- CMC ЮЮк _. _> Г- ЮС0 со со со со со 00 r^COCO « C7) 00 f*- CO COCO h» 00 O5 coco со со со о со ю '—< CM CO " о Ю Ю С ю** со осм^ ююю C7>lOC0f оо со^ см см см со тр ю со coco со со 5СЛ t— СОЮ 3COt- 00 СЛ 5 CO CO CO CO 0) s я СО "^ t4- СО СО см см со ^ ю со со со со со 5 CO CO CO I I ел со о oo с СЛ t- ЮСМ < ~* CM CO^t* I со со со со с "-* СМ СО "*4* ^ со со со со со О СО 00 СО СО ОО ^-Ю Tf CO ю со^- оо а> coco coco со * ^И О t4^ СО ) СО Ю СО СМ ) СО -Г4- 00 СТ> 5 СО СО СО СО 00-^ t со io со *—* ел со со со со со СО СО *™^ 00 I4* С^Юч^СМ^ со со coco со СО *"^ *•"* СО -^ СМ СО "^ СОГ»- 00 СЛ ЮЮ1 СО I4- ь-сл -^ см >СМ00ЮЮ ООСООСЙМ t-Tt*rh >ослелел ел о •—«•—< со ^f со со TfCOt-ООСЛ О^СМ 1-й 1-— ^< СО lO(NO 00 CM CO ^ j« NlO(NO 00 *-"• CM CO "^ Tj« со со со со со Ю 00 СО СЛ 00 СО^ СО^-^ О ю cot— оо ел со со со со со ООЮЮ t-СМСЛООО ЮСМСМ °°"-^ -" "* СООрСЛ О -и СМ i ОСОСЛСОЮ N •^'^'СЛГ-. со со со со со СОСЛ -*r-<O) юсосм ~* a> ю cot— oo oo COCOCOCOCO О CO 00 СОЮ СЛ 00 t*— t— Is- ел о«—* см со -—<со t—с Г>0О0О<й< t со СО *~н CM CO CO 'sj' со со со со со ОО^Ю ^ co-^o __ Ю CD t- 00 OO со со со coco о -* ** ел сою ел оо г*- сососо ОО СЛО "-"СМ СО СО Т ^^ 4 *— г— со оо г— г*- оо ел Ю СО t4- 00 см ел со ююю H 22 ю со t-со ел О CN СО СО СО COTh Ю COt— ООСЛ СО СО СО СО СО СО СО
о© OOi CMCMtMCO CO ооооо CM <N CM CO CO ©_ — —.-« ю ю со со со со со •**• "*• rh CM (N CM CM CO N- N-N-00 O) ююю со со CO CO ч*"«« rj« O> 0H 00 N. N- N- 00 00 Ю Ю Ю CO CO O) 00 N- 00 00 CO CO оо оо оо со о> N. Г^ N. Г^ N» N. 00 00 00 00 Ю Ю Ю СО СО СО СО СО СО СО ООО—«*-« —« ~< CM CM CM CMCOCOCOrf' СО 00000HH) 0HH00 О —« 1-н •-««—< Ю N•00000000 00000HH) Tt1 СО СО СО СО СО СО СО N- N» N» СО со со со со oo со со со со со —< (N (M CM CM CM CM CM CM CM CN <N(M(N (N —• СОО 00 ~* о < si Ю CO CO C I СО О) СО 00 -GOO)—"С" lOOOf TtO ^^^ 00 CN CO N- 00 O) —* CN Ю IQ Ю CO CO CO CO CO CO N1 N-N-O N. N. СО СО СО СО N» —< СО—* N-C0 ч$« Ю^ 00 О СО СО СО СО N» )COC I О) С ОО) СМОСМ »—» О) О) О) О) 00 00 00 00 00 ;§ « ОСМ^ СО 00 СО 00 00 00 00 SggS _ . ^ О) О) _) СО СО О 00 »-^ СО Ю^ОО N-N•N•1^ N- юсм т*« N- о со СМ тГ CN CD 00>CN CD CO N* C^ lO Ю Ю Ю СО СО МОЮ С Ю 00 CO'—• CO N« О ^ 00 СЧ CO 00 O) OCM IQ lO lO CO CO NCOOllOlO О) ^!^ О) lO *~^ со ю со оо о N» О) ^!^ О) lO ^ со ю со оо о СО СО СО СО N СО '—« СО О) С 00 СО 00 СО С со со со со с 00 CO 00 CO (N CO— CO CM 00 CO ЮСО00 O> со со со со со »-• 00 OiT** <N CO CM O> N-IO Ю ^ CO CO CO о см -^ со oo 00 00 00 00 00 ЮСМ "ФО О CO (N *--< ^н »-i О CM ^ CO 00 00 00 00 00 00 t*^ ^* 1Л СЭ C> »—• О O> O) O) OiNOOWN 00 00 N> 00 00 CON- CM COC CO t4 CO 00 С * COC со ¦"^ C4! ^f CO 00 О CN ^f CO 00 Ю O) O) O) O) O) lOTt<OH0C0 о» о*— со со OCM-^t* COOO 00 O> O> O) O> Oi COC 00 С Si CO N> О) 1СЮЮ О) —« СО СО ^ тр 00 ""н Ю О> юююоео D00 СМ05О МОЮ COCO > О Ю О С IЛ СО 00 С > со со со с о со О) i ^ CON-C со со со с —< СМ СО' N-CM N-C тР CON- С со со со с OJ О) СО СО ~~* у* CM Tf СО 00 N-N-N-N-N* СМ 00 N- — 00 ~« N-^CMO) ооююоо О5 00 N- N. N- N-ООО0 00 00 О СО СО — О 00 СОЮ Ю Ю О)»— СО Ю N- N•00 00 00 00 CM N-N-—*О со ^J* со со со О) «—• СО Ю N- N-00 00 00 00 О)—« СО СО00 СО 00 О) О) О) О) т}— CO^N- Ю СО N- О) ^ О) —СОЮ00 СМ 00 О) О) О) О) 00 О> О) О) О> SS СО ^^ 00 СО СО *^^ f**1- t4-. *"¦* 00 СМ Ю 00 СМ СО нЮОйн CO N- 00 О —< СО ^ СО N. О) Ю lO lO СО СО СО СО СО СО СО О)^ СО СО СМ N- Tt4 -н ОО СО NCM-* 125N со оо оо »—¦ о N* 00 00 00 00 соос *-• CMC %?1 ЮСО^ООО) O^(NC0"^ ЮСО^ООО) О — СМСОч* ЮСО^ООО) N» N" г* N. Is* 0000000000 0000000000 (J) СП Oi С?) О) О> О) О) О) О) 23
число х, такое, что ах = у. Это число х называется логарифмом у по основанию а и записывается: х = fllog у или loga у. Число у называется логарифмируемым числом по основанию а. В большинстве случаев используются логарифмы по основанию 10, записываемые 10log x9 logio x или просто lg x. Другие системы логарифмов будут упомянуты в конце этого раздела. Пусть а = 10 и у = 3, тогда получаем десятичный логарифм х — 0,4771, или 10 °'4771 == 3. Другие примеры с четырехзначными логарифмами: 5 = Ю0.6990 или ig 5 = 0,6990; 1 = 100'0000 или lg 1 = 0; Ю = 101.0000 или jg ю = 1,0000; 1000 = 103 или lg 1000 = 3; 0,01 = Ю-2 или lg 0,01 = —2. Так как логарифмы есть показатели степени, для них справедливы правила возведения в степень, например: 2»4 = 100'3010.100'6021 = 100>3010+0'6021 = Ю0'9031 = 8. Умножение чисел преобразуется в сложение логарифмов этих чисел и соответственно деление — в вычитание, возведение в степень — в умножение, извлечение корня — в деление: 1) lg (ab) = f 2) lg-f-lga-lgfe; о 3) 4) lg lg an = n ]/~a=z\gt lgtf; l l г n = — n Если мы запишем а == 10^a, то а — логарифмируемое число, или антилогарифм, lg a — десятичный логарифм от а, он состоит из двух компонент, например: lg 210,0 - lgB,M02) = Ig2,l + lglO2 = 0,3222 +*2 =*2,3222; lg 21,0 - lg B,1 -101) = lg 2,1 + lglO1 = 0,3222 + 1 = 1,3222; lg 2,1 = lg B,1-10°) = lg 2,1 + lg 10° = 0,3222 + 0 = 0,3222; lg 0,21 = lg B,l-10-1)= lg 2,1 + lg Ю-^0,3222 — 1. Цифры после запятой логарифма (здесь 3222) называют мантиссой (М). Мантиссу находят по таблицам логарифмов (табл. 2), которые лучше называть таблицами мантисс логарифмов. Мы привели четырехзначные мантиссы, которых обычно бывает достаточно; на практике пользуются, когда нет вычислительной маши- 24
ны, или счетной линейкой, или, когда требуется более высокая точность, пяти (или более)-значными таблицами логарифмов. Цифры перед запятой B, 1, 0, —1) называют характеристикой логарифма (X). Логарифмируемое выражение записывают, как в предыдущих 4 примерах, ё следующей форме: Г Последовательность цифр с запятой"] Логарифмируемое выражение = -10. [ после первой значащей цифры J Пример. Найдите логарифмы для: а) 0,000021 = 2,ЬЮ-6; lg B,Ы0-5) = 0,3222—5; б) 987000 = 9,87-105; lg (9,87-105) = 0,9943+5 = 5,9943; в) 3,37 = 3,37-10°; lg C,37.10°) = 0,5276+0 = 0,5276. Если при вычислениях корней появляются отрицательные характеристики, то необходимо эти характеристики представить в форме, делимой на показатель корня. Пример. Вычислите >Л),643. lg 0,643 = 0,8082 — 1 = 2,8082—3; Ig3/O643 - lg 0,6431/3 = 1/3 B,8082—3) = 0,93607 — 1; 1^643 = 0,8631. Перейдем к обратной операции — определению логарифмируемого числа по логарифму, антилогарифмированию. Отыскание антилогарифма производится в конце вычислений с помощью логарифмов по таблицам (табл. 3) аналогично отысканию логарифмов. Если нужно найти антилогарифм, то нужно при отрицательном значении логарифма мантиссу преобразовать в положительную форму, например: lg*= —5,7310 = ( — 5,7310 + 6) — 6-0,2690-6. Мантисса без характеристики употребляется для отыскания антилогарифма с запятой после первой значащей цифры. Значение X, положительное или отрицательное, дает показатель степени при 10: Г Последовательность цифр с запятой после! х • 10 = логарифмируемое выражение. L первой значащей цифры J Пример а) lg * = 0,2690 — 6; х = 1,858- Ю-6; б) lg х = 0,0899 — 1; х = 1,23-10; в) \gx = 0,5276; х = 3,37; г) \gx = 5,9943; * = 9,87-10б. Подведем итоги. Каждое вычисление с помощью логарифмов разделяется на 5 этапов: 1) формулировка задачи вычисления; 2) перевод в логарифмическую запись; 25
3) определение характеристики и нахождение мантиссы по таблице логарифмов; 4) проведение расчетов (с логарифмами); 5) нахождение антилогарифма по таблице. Характеристика определяет место запятой. Когда нет специальных таблиц антилогарифмов, приходится для обратного перехода пользоваться теми же таблицами логарифмов. Пример. Вычислите V- 89,493»5-У0,006006 0,001009а. 3601000*.2 Мы полагаем V- (8,949-10K >8*Уб,006-Ю-з A,009- 10-з)а. C,60Ы06L'2 Тогда \gx = -g- ({lg (числителя)}— {lg (знаменателя)}) = -g-({3,5x X lg (8,949 • 10) + ~ lg F,006 • 10-3)} — {2-lg A,009 * 10~3) + 4,2x XlgC,60M0e)}). Число 8,949-101 6,006-lO Числитель 1,009.10"* 3,60Ы0б Знаменатель Логарифм 0,9518+1 0,7786-3=1,7786—4 0,0039-3 0,5564+6 Множитель 3,5 0,5 2 4,2 Логарифм 6,8313 0,8893-2 5,7206 0,0078-6 27,5369 21,5447 lgх = -i- ({5,7206}-{21,5447})= -f ({23,7206-18} -{21,5447}); 6 О lg x = i- B,1759— 18) = 0,36265— 3. 6 Искомое значение х = 2,305-10~~3. В заключение следует упомянуть, что так называемые натуральные логарифмы (In) (см. табл. 29 и 36) в качестве основания имеют постоян- 26
ную ее-2,718281 (предел ряда е = 1 + 4" + 1~2" + 1 . 2 ¦ 3 + + 1-2.3.4 + —•)• • Формулы пересчета имеют вид: In х = In 10-lg x ~ 2,302585 • lg *; lgJC = lge-lnjc ~ 0,4342945-In л:. Вместо «In jc» иногда встречаются записи «'log x» и «loge a:». Логарифм по основанию 2, двоичный логарифм, Id (или lb [binar, состоящий из двух единиц]) получается по формулам: lg 2 ldx= —~ 1,442695-In л In 2 или из таблиц (например, [В. Alluisi, 1965]). 0.3. ВСПОМОГАТЕЛЬНЫЕ СРЕДСТВА ДЛЯ ВЫЧИСЛЕНИЙ Обычным для исследователя вспомогательным средством для вычислений является вычислитель [Lehmann, 1966], [Stender, 1967], с помощью которого достигается повторяемость результатов вычислений в лучшем случае до третьего знака. Медленнее, но точнее рассчитывают по табл. 2 и 3. С помощью шестизначных логарифмических таблиц можно получать в результате пять значащих цифр. Удобнее, однако, применение современных печатающих 12-знач- ных электромеханических или электронных настольных вычислителей. При очень больших расчетах, в особенности с большим числом переменных, целесообразно применение электронных установок обработки данных. Для многих случаев имеются уже готовые программы. Наряду с вычислительной машиной и счетной машиной для вычислений при статистическом анализе требуется ряд числовых таблиц, например, квадратов и квадратных корней. Рассмотрим такую таблицу: табл. 4 в 1 и 6 столбцах содержит числа от 1 до 100, в следующих справа столбцах — квадраты чисел, в следующих — корни квадратные из п и Юл и обратные значения 1//г. Например, для п — 36, /г2 = = 36-36 = 1296, квадратный корень из 36 равен У36 = У(Гб = 6; квадратный корень из 10-36 = 360 равен УЗбО = 18,974 D столбец). Обратное значение, записываемое 1//г, равно 1/36 = 0,02778 E столбец). Примеры на извлечение корней: = 8,307; У 0^9 = 0,8307; ]/6900 - 83,07; |/б^=2,6268; У690- 26,268; ]/69000 = 262,68. 27
Таблица 4. Квадраты, квадратные корни и обратные значения чисел от п—\ через 1 до 100, или в символической записи 1A) 100 п 1 2 3 4 5 6 7 8 9 10 И 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 1 4 9 16 25 36 49 64 81 100 121 144 169 196 225 256 289 324 361 400 441 484 529 576 625 676 729 784 841 900 961 1024 1089 1156 1225 1296 1369 1444 1521 1600 1681 1764 1849 1939 2025 2116 2209 2304 2401 2500 /я 1,000 1,414 1,732 2,000 2,236 2,449 2,646 2,828 3,000 3,162 3,317 3,464 3,606 3,742 3,873 4,000 4,123 4,243 4,359 4,472 4,583 4,690 4,796 4,899 5,000 5,099 5,196 5,292 5,385 5,477 5,568 5,657 5,745 5,831 5,916 6,000 6,083 6,164 6,245 6,325 6,403 6,481 6,557 6,633 6,708 6,782 6,856 6,928 7,000 7,071 >Лол 3,162 4,472 5,477 6,325 7,071 7,746 8,367 8,944 9,487 10,000 10,488 10,954 11,402 11,832 12,247 12,649 13,038 13,416 13,784 14,142 14,491 14,832 15,166 15,492 15,811 16,125 16,432 16,733 17,029 17,321 17,607 17,889 18,166 18,439 18,708 18,974 19,235 19,494 19,748 20,000 20,248 20,494 20,736 20 976 2^213 21,448 21,679 21,909 22,136 22,361 1/я 1,00000 0,50000 0,33333 0,25000 0,20000 0,16667 0,14286 0,12500 0,11111 0,10000 0,09091 0,08333 0,07692 0,07143 0,06667 0,06250 0,05882 0,05556 0,05263 0,05000 0,04762 0,04545 0,04348 0,04167 0,04000 0,03846 0,03704 0,03571 0,03448 0,03333 0,03226 0,03125 0,03030 0,02941 0,02857 0,02778 0,02703 0,02632 0,02564 0,02500 0,0243а 0,02381 0,02326 0,02273 0,02222 0,02174 0,02128 0,02083 0,02041 0,02000 п 51 52 53 54 55 56 57 58 59 60 61 62 63 64 65 66 67 68 69 70 71 72 73 74 75 76 77 78 79 80 81 82 83 84 85 86 87 88 89 90 91 92 93 94 95 96 97 98 99 100 /12 2601 2704 2809 2916 3025 3136 3249 3364 3481 3600 3721 3844 3969 4096 4225 4356 4489 4624 4761 4900 5041 5184 5329 5476 5625 5776 5929 6084 6241 6400 6561 6724 6889 7056 7225 7396 7569 7744 7921 8100 8281 8464 8649 8836 9025 9216 9409 9604 9801 10000 /л" 7,141 7,211 7,280 7,348 7,416 7,483 7,550 7,616 7,681 7,746 7,810 7,874 7,937 8,000 8,062 8,124 8,185 8,246 8,307 8,367 8,426 8,485 8,544 8,602 8,660 8,718 8,775 8,832 8,888 8,944 9,000 9,055 9,110 9,165 9,220 9,274 9,327 9,381 9,434 9,487 9,539 9,592 9,644 9,695 9,747 9,798 9,849 9,899 9,950 10,000 ¦p/lO/г 22,583 22,804 23,022 23,238 23,452 23,664 23,875 24,083 24,290 24,495 24,698 24,900 25,100 25,298 25,495 25,690 25,884 26,077 26,268 26,458 26,646 26,833 27,019 27,203 27,386 27,568 27,749 27,928 28,107 28,284 28,460 28,636 28,810 28,983 29,155 29,326 29,496 29,665 29,833 30,000 30,166 30,332 30,496 30,659 30,822 30,984 31,145 31,305 31,464 31,623 1/я 0,01961 0,01923 0,01887 0,01852 0,01818 0,01786 0,01754 0,01724 0,01695 0,01667 0,01639 0,01613 0,01587 0,01562 0,01538 0,01515 0,01493 0,01471 0,01449 0,01429 0,01408 0,01389 0,01370 0,01351 0,01333 0,01316 0,01299 0,01282 0,01266 0,01250 0,01235 0,01220 0,01205 0,01190 0,01176 0,01163 0,01149 0,01136 0,01124 0,01111 0,01099 0,01087 0,01075 0,01064 0,01053 0,01042 0,01031 0,01020 0,01010 0,01000 28
Величина п в табл. 4 называется независимой переменной, или аргументом. Зависящие от нее величины /г2, V/г, VlOn и \1п называют зависимыми переменными, или значениями функции, от соответствующей независимой переменной. Например, при аргументе п = 10 квадратный корень (или значение функции) равен 3,162. Это значение округляется до третьего десятичного знака B). При применении табл. 4 или подобных таблиц следует обратить внимание на следующее: квадратный корень из чисел свышеЮ00(>1000) и меньше 1(<1) определяется просто, так как любое число b может быть записано в виде Ь = а-10±*от при 0 ^ а <С 1000 и т — положительном целом числе, откуда: уь=У'а • 1 о±2т=У<* •!0±m; /Шб =/89-102 = 9,434-10 = 94,34; 1/89000 = /890-102 = 29,833.10 = 298,33; /0,000011 = /0,0000011 =]/110«10-8=10,488.10-4. Линейная интерполяция Определим корень из 126. Корни из 120 и 130 соответственно равны 10,954 и 11,402. Очевидно, что искомое число должно лежать между двумя этими значениями. Эта так называемая табличная разность составляет 0,448. Шесть десятых этой разности, т. е. —т§— = 0,2688 ~ ~ 0,269, нужно прибавить к 10,954 (корню из 120), чтобы получить корень из 126: V126 ~ 11,223. Точное значение равно 11,225. Эта так называемая линейная интерполяция в нашем случае дала вполне приемлемую точность. Если требуется большая точность, то нужны более подробные таблицы квадратных корней из чисел от 1 до 999. Соответствующие таблицы можно найти в списке литературы, относящемся к разделам 2 и 5.1. Итеративное определение квадратного корня В качестве примера приближенного метода определения квадратного корня из числа а рассмотрим так называемый итеративный способ— квадратный корень из положительного числа a: x=Va при а > 0 быстро вычисляется с помощью пошагового приближения (итеративного, от лат# iteratio — повторение), с помощью повторного вычисления среднего значения по формуле = --rfc + — ),*= 1,2,3,... В качестве начального значения хг принимается'значение, меньшее, чем значение корня, хг < У а и х\ < а, чтобы слагаемое а/х± приводило к увеличению приближенного значения. Итерационная процедура 29
продолжается до тех пор, пока не будет^стигйута желаемая точность. Если, например, нужно определить VlO (а = 10) и мы в качестве хг принимаем 3C2 = 9 < 10), то получаем: ^ = 3; а\хх =10/3 = 3,33333; х2= 1/2C + 3,33333) = 3,16667; х2 = 3,16667; а/х2 = 10/3,16667 = 3,15789; лг3= 1/2 C,16667+ 3,15789)=3,16228 и т. д. _ Точное до 7-го знака значение VlO = 3,162277. Кубический корень (например, уг8 = 2, так как 2-2-2 = 23='8) соответственно может быть рассчитан по формуле = 4-B*,+41 *= 1,2,3... Так как электронные вычислительные машины с программным управлением рассчитывают необходимые значения функций, а не берут их из таблиц, то приближенные методы, аппроксимация, играют весьма большую ролы Привлекая эти вспомогательные средства для вычислений, следует также учесть следующие рекомендации: 1. Построить схемы вычислений — определить последовательные этапы вычислений. Большие вычисления необходимо хорошо продумать и подготовить так, чтобы их можно было провести с привлечением неквалифицированной помощи. Наглядная схема вычислений, которая содержит общий план вычислений и по которой планомерно проводятся эти вычисления, помогает также избежать ошибок. 2. Разграфленную бумагу использовать только с одной стороны, большие поля оставлять для повторных вычислений, неправильные цифры зачеркивать, а правильные подчеркивать. 3. Проводить приближенные вычисления, чтобы избежать ошибок из-за неправильной постановки запятой, проверять вычисления! Каждой вычислительной операции должно предшествовать {или следовать за ней) приближенное вычисление, в результате которого по крайней мере надежно определяется место запятой. При этом рекомендуется запись со степенями 10: q 167 = /57.10-1 — ^* Ю~а» точное значение до 3-го знака 5,413'-10-2. 4. Когда возможно, необходимо для лучшего контроля задачу еще раз решить другим способом. 0.4. ОКРУГЛЕНИЯ Если нужно величины 14,6; 13,8; 19,3; 83,5 и 14,5 округлить до ближайших целых чисел, то для трех первых величин это не вызывает затруднений: 15; 14 и 19. Для следующих величин можно рассматривать числа 83 или 84 и 14 или 15. В таких случаях округление целесооб- 30
разно проводить до ближайшего четного числа, так что 83,5 переходит в 84, а 14,5 — в 14. При этом нуль рассматривается как четное число. Чем больше значений, входящих в сумму, определяется таким образом, тем меньше будет ошибка округления. В последнее время рекомендуется в подобных случаях всегда округлять в большую сторону (т. е. 14,5 до 15). Рекомендуется отмечать округления в меньшую сторону точкой над последней цифрой, а округления в большую сторону — штрихом под последней цифрой; особенно это важно, если последняя цифра равна 5 E и 5). Важным является также понятие значащих цифр. Под значащими цифрами числа понимают последовательность цифр без учета места запятой, а для чисел, меньших единицы, — без учета нуля перед запятой и всех последующих за ним нулей. Табл. 5 сравнивает три округленных результата, число значащих цифр и получающуюся при этом точность, предельные границы результата, а также максимальную ошибку округления. Таблица Результат 4 4,4 4,44 5 Число значащих цифр 4 2 3 Граничные значения ошибки 3,54-4,5 4,354-4,45 4,435-4,445 Максимальная ошибка (±1%) 0,5-F - —-юо 12,5 1,14 0,113 Из этогоследует, что если применяется метод, ошибка которого лежит в пределах 8%, то будет ошибочным выдавать результаты с более чем двумя значащими цифрами. Если перемножаются два числа, каждое из которых характеризуется1 л: точными или значащими цифрами, то максимум (х — 1) зна- чащихвцифр следует учитывать в произведении. То же справедливо и для деления. Пример. Рассчитайте площадь прямоугольника со сторонами 38,22 см и 16,49 см. Ответ 38,22-16,49 = 630,2478 см2 был бы неверным, так как истинное значение может лежать между 38,216-16,486 = = 630,02898 см2 и 38,224-16,494 = 630,46666 см2. Эта площадь равна 630,2 ± 0,3 см2. Результат может содержать только 3 значащие цифры F30 см2). 0,5. РАСЧЕТЫ С ПРИБЛИЖЕННЫМИ ЧИСЛАМИ Если в вычислениях участвуют приближенные числа, то следует оценить так называемое преобразование ошибок. Для этого можно провести два параллельных расчета: один — с граничными значениями, приводящими конечный результат к минимуму, а другой — с граничными значениями, приводящими конечный результат к максимуму. 31
Пример 30 ± 3 область от 27 до 33 20 ± 1 область от 19 до 21. 1. Сложение. Истинное значение суммы этих двух чисел лежит между 27+19 = 46 и 33 + 21 = 54. Относительная ошибка суммы равна 54Т46 = щ = 0,08. Она лежит в пределах ±8%. 2. Вычитание. Истинное значение разности лежит между 27 — 21 =* 6 и 33 — 19 = 14 («перекрестное» вычитание, т. е. максимальное значение одного числа вычитается из минимального значения другого и минимальное значение одного числа из максимального значения другого). Относительная ошибка разности равна 3. Умножение. Истинное значение лежит в пределах от 27* 19 = 513 до 33-21 = 693. Относительная ошибка произведения равна: 513-30-20 в 513-600 ^_^= 30-20 600 600 693-30-20 693-600 93 30-20 =~ш"б?= +15>5/о- 4. Деление. Истинное частное лежит между 27/21 = 1,286 и 33/19 = 1,737 («перекрестное» деление). Относительная ошибка частного: 1,286-30/20 =_JL2Ij 143> _14,3% 30/20 1,500 ИЛИ Ц37- 30/20 _ 0,237 п , ,я ¦ i* qoz = = U,lOo, -4- 1о,ол). 30/20 1,500 ' ' Из всех четырех арифметических операций наибольшую ошибку может дать вычитание, относительная ошибка при котором значительно больше, чем при остальных арифметических операциях. 0.6. ПРИБЛИЖЕННЫЕ ФОРМУЛЫ ДЛЯ ВЫЧИСЛЕНИЙ С МАЛЫМИ ЗНАЧЕНИЯМИ Если а, 6, с суть малые в процентном выражении относительные ошибки, то произведениями вида а2, аб, be2 при многих вычислениях можно пренебречь. На с. 33 приведены некоторые приближенные формулы для вычислений с малыми значениями. Абсолютное значение числа обозначается двумя вертикальными черточками, значение \а\ всегда положительно, вне зависимости от знака (например, |—2| = |+2| = 2). 32
№ 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 Функции и приближенные формулы A +а) A ±Ь) ~ \+а ± Ь для \а\ > |*| A + а) A + Ъ) A + с) с* 1 + а + 6 + с для |а| ^ \Ь\ > |с| -i/" 1/2 ^ ~~ ~ "" 2 / l+fl=(l±fl) ^1± 3 yi5-,.±.,«-i*-J- 1 х= Aч-а) 2 ?^ 1+а 1±а 1 1 —=г = A-4~а) — 1 -Ь — у 1+д 2 1 -1/3 а -^ ^ 1 + 2а \±а /l + я 1 \ ~ * 1 i An ±а л , In A±а)^ ±а lg A±а)^ ±0,4343а 1 — а ~ а lg ?^и,ооооа 1 —а Ошибка <0,001 для \а\ ^ 0,031 0,017 0,089 0,095 0,100 0,032 0,018 0 014 0,052 0 0fi7 V/, \J\JI 0,022 0,045 0,011 0,045 0,045 0,068 0,120 0,152 930
Если не превышается заданное максимальное справа значение |а|, то ошибка приближения меньше чем 0,001. Если мы проверяем фор- МУЛУ ьЬ" — 1 — а: для а = 0,031 Г+Тоз!= °'96 1—0,031= 0,96900 0,00093 <0,001; для а = 0,032 ^±—- = 0,96899 1 —0,032= 0,96800 0,00099 < 0,001; для а == 0,033 ! = 0,96805 1+0,033 1 —0,033= 0,96700 0,00105 > 0,001, то максимальное значение для \а\ получается равным 10,0321. Примеры 1. Приближенная относительная ошибка произведения C0± 10%) X ХB0±5%) согласно A) получается F00±10%±5%) равной±15%. D30+^М*в0+*5) у () р 2. Частному D30+^М*в0+*5) соответствует D30 + 4,89%) X X A60 + 9,38%)/C40 — 5,59%); согласно A) и F) приблизительная относительная ошибка равна E+9)+6 = 20% и результат —^— ± ±20%, или 202 ± 40, т. е. пределы 162 и 242. 3. Длина, ширина и высота кирпича равны хъ х29 xs см с относительными ошибками 0,01. Максимальная ошибка в объеме равна тогда 3% (см. [2]), максимальная абсолютная ошибка равна 0,03'Хх*х^хъ см3. 4. Согласно A.4, 1.5, 1.6) мы получаем: во,оз гки i?o3, до 5-го знака точное значение 1,03045; In A + 0,03) ~ 0,03 - » » » 0,02956; lg A + 0,03) ~ 0,013 » » » 0,01284? 0J. ОТНОСИТЕЛЬНЫЕ ЧИСЛА Относительные числа, такие, как, например, число рождений мальчиков на число рождений девочек, равное в ФРГ 1,07, —это отношения двух значений или характеристик, описывающих определенный процесс, явление. Часто это число умножают на 100 или на 1000 и дают его в процентах или в тысячных долях (концентрация алкоголя в крови). Зачастую совсем непросто образовать осмысленные, содержательные относительные числа. Мы здесь хотим упомянуть о том, что можно различать три вида этих чисел (см. табл. 6, а также [Mudgett, 19511, 34
Та 1. 2. 3. блица 6 Относительные числа Отношение части к целому Относительные числа Показатели Отношение Часть целого к целому Отношение чисел различного вида Отношение чисел подобного вида Возрастное Население Сравнение Пример деление на 1 км2 числа населения площади рабочих двух предприятий одной отрасли, рольный занятых день в конт- [Snyder, 1955], [Freudenberg, 1962], [Pfanzagl, 1964], [Crowe, 1965], [Craig, 1969]): 1. Отношение части к целому, которое в количественной форме выражает отношение части к соответствующему целому, например часть родившихся живыми от общего числа родов. 2. Относительное число, которое выражает в количественной форме отношение двух различных величин, логически взаимосвязанных, например число рождений на общую численность населения. 3. Показатель, отображающий в количественной форме отношение подобных величин, логически связанных друг с другом, но сгруппи* рованных по разным признакам, например число мертворожденных к числу родившихся живыми. Показатель в Англии и США называют также индексом. В Германии обычно только комбинации нескольких показателей, например их среднее значение, называют индексным числом или просто индексом. При выборе вида относительного числа для характеристики яв* леиия решающими являются соображения целесообразности* 0.8. ГРАФИЧЕСКОЕ ИЗОБРАЖЕНИЕ Графическое изображение в самом различном виде хорошо изйестйо из рекламы. Различают линейные, прямоугольные, плоскостные и объемные диаграммы (рис. 1). Прямоугольная диаграмма характеризуется постоянной шириной прямоугольника; для плоскостной диаграммы употребляют обычно или квадрат (площадь = а2), или круг (площадь = лг2); для объемной диаграммы используется куб (объем = а3). Поскольку при сравнении площадей и объемов легко ошибиться, то в смысле ясности изображения предпочтительнее линейные и прямоугольные диаграммы. Если элементы диаграммы дополнить распределением частот в процентах, то наглядность прямоугольной диаграммы (рис. 2) возрастет. При этом, как во всех процентных представлениях, необходимо общее число, соответствующее 100%-ному объему выборки, указать или на самой диаграмме, или в подписи к ней. 35
Линейные WO Прямоугольные WOr \50 70 С = С Диаграммы Плоскостные (Шдрат) (Круг) *~W rzifso V 7Г Рис. 1. Виды диаграмм. Объемные Графическое представление лежит также в основе координатной системы: две прямые, расположенные под прямым углом (рис. 3). Горизонтальная ось называется «ось лс», или «ось абсцисс», а вертикальная — «ось у», или «ось ординат». От точки пересечения прямых, начала координат или нулевой точки на прямых в четырех направлениях наносятся и отмечаются единицы измерения, причем вправо и вверх — положительные значения, влево и вниз — отрицательные. Теперь можно задать любую точку внутри системы. Например, точка х = 2 и у = 3, сокращенно B,3), представлена на рис. 3. Обычно используется положительная часть координатной системы, первый квадрант («вправо вверх»). Подробнее о методах графического изображения см. [Dickinson, 1963], [Bertin, 1967], [Bachi, 1968], [Lockwood, 1969], [Schon, 1969], [Spear, 1969] и [Wilhelm, 1971]. Указания о технике научно-исследовательских работ см. [Kjober, 1969], [Heyde, 1970] и [Kliemann, 1970]. (ордината) У 4 3 2 1 Точна -U -3 -2 -1 -1 -2 -3 -4 (-4-3) J 2 3 4 ^ Нулебоя точно системы координат Ось х (абсцисса) Рис. 2. Прямоугольная диаграмма в процентах (значения отдельных частей объясняются в описании). Рис. 3. Система координат. 36
ГЛАВА L СТАТИСТИЧЕСКИЕ МЕТОДЫ РЕШЕНИЯ ЗАДАЧ При первом чтении начинающему рекомендуется: ограничиться разделами, отмеченными #; быстро продвигаться вперед, обращая особое внимание на примеры, указания и трудные для понимания места оставлять для последующего изучения. ф 1.1. ЧТО ТАКОЕ СТАТИСТИКА! СТАТИСТИКА И НАУЧНЫЙ МЕТОД Основу экспериментальных наук образуют не единичные, изолированные события или признаки, относящиеся к отдельным индивидуумам или элементам, а повторяющиеся опыты, совокупности однородных опытов, рассматриваемые как единое, однородное целое. Когда Земмельвайс (Semmelweis) в 1947 г. в акушерской клинике в Вене преодолевал сопротивление своих коллег гигиеническим мероприятиям, он не знал ничего о возбудителе родильной горячки. Не мог он также и доказать своего успеха, так как и после введения этих мероприятий женщины продолжали умирать в его клинике от родильной горячки. Но смертность матерей при родах была снижена с 10,7% A840—1846 гг.) до 5,2% A847 г.) и до 1,3% A848 г.), причем эти проценты были вычислены Лески [Lesky, 1964] на основании достаточно большого числа родов B1120, 3375, 3556). Только после этого Земмельвайс пришел к убеждению, что гигиенические мероприятия надо принять. Статистические методы требуются всегда, когда результаты не могут быть точно повторены сколь угодно много раз. Причины такой невоспроизводимости лежат в неконтролируемых и не поддающихся контролю влияниях, в неоднородности объектов опыта, в изменчивости материалов и условий опыта. Эти причины приводят к «рассеянию» количественных признаков в ряду наблюдений. Так как вследствие этого рассеяния найденные значения почти никогда не воспроизводимы точно в естественнонаучных исследованиях и изменчивость отдельных признаков много меньше, чем в социальных исследованиях, то необходимо оставить надежду на возможность получения надежных однозначных 37
выводов, заключений. Рассеяние ведет к неопределенности, при которой возможны только неформальные решения. Это обстоятельство является основой одного из современных определений статистики, которое было предложено Абрахамом Вальдом (Wald) A902—1950): статистика — совокупность методов, которые дают нам возможность принимать оптимальные решения в условиях неопределенности. Описательная (дескриптивная) статистика ограничивается исследованием и описанием полных совокупностей. Современная индуктивная, или аналитическая, статистика исследует, напротив, только ре-_ презентативную, представительную часть совокупности, свойства которой нас интересуют. Наблюдения части распространяются по индукции на всю генеральную совокупность. При этом решающим является случайный выбор наблюдаемой части генеральной совокупности — выборки— по аналогии с лотереей. Мы называем выборку случайной, если каждая возможная комбинация равного числа элементов из генеральной совокупности имеет равную вероятность образовать выборку. Случайная выборка важна, так как только она позволяет распространить выводы на всю генеральную совокупность. Полное исследование почти всегда или невозможно, или связано со слишком большими материальными и временными затратами. Примерно за 9 лет удваиваются человеческие знания, 90% всех ученых, которые жили когда-либо, живут и работают в настоящее время [Price, 1969]. Могут быть выделены следующие 4 ступени научного метода: 1. Проведение наблюдений. 2. Выделение (абстрагирование) значимых элементов как основы для гипотезы или теории. 3. Развитие гипотезы теории с предсказанием новых результатов. 4. Сбор новых фактов, которые ревизуют (верифицируют) предсказания теории: наблюдения второго цикла. Полный цикл начинается снова. Выдвигается гипотеза, затем условия испытаний и их объем изменяются и уточняются до тех пор, пока не находится возможность требуемого улучшения, уточнения теории. Затем появляются новые результаты и гипотеза окончательно отвергается, формулируется новая гипотеза, которая согласуется с большим числом наблюдаемых факторов. Окончательная истина вообще не может быть достигнута в экспериментальной науке. Неудачные попытки опровергнуть определенную гипотезу укрепляют нашу веру в нее, однако окончательно доказать, что она справедлива всегда, не удается: гипотеза может быть только проверена, но никогда не может быть доказана! В описанном выше цикле познания статистика может применяться на всех четырех ступенях: 1) при выборе наблюдений (теория выборок); 2) при классификации, представлении и обобщении наблюдений (описательная статистика); 3) при формулировании и проверке гипотез (методы проверки гипотез). 38
Главную роль играет основанная на описательной статистике статистика индуктивная, или аналитическая (теория статистического вывода). Она позволяет распространить заключения, сделанные на основании выборки, на всю генеральную совокупность, установить закономерности у справедливые иене области наблюдений. Индуктивная статистика дает возможность с помощью сопоставления экспериментальных данных с результатами, вытекающими из вероятностных моделей (идеализированных ситуаций), вынести суждение о соответствии эксперимента существующим научным теориям; при этом высказывания, естественно, должны носить вероятностный характер и сообщать практикам информацию, необходимую для принятия решения. В теории оценивания необходимо принять решение о том, как можно наилучшим образом по выборке узнать характеристики генеральной совокупности. В теории проверки гипотез речь идет о том, к какой генеральной совокупности принадлежит данная выборка. Современная статистика интересуется двумя направлениями: получением данных (т. е. планами и проведением опытов) и анализом и интерпретацией данных, при которой из чисел «экстрагируется» максимально возможное количество информации. Так как плохо спланированный опыт мало информативен, что нельзя исправить самой лучшей статистической техникой, то планирование эксперимента становится особо важным составным элементом статистики (см. также с. 507—514). 1.2. ЭЛЕМЕНТЫ ВЕРОЯТНОСТНЫХ РАСЧЕТОВ Ненадежность решений может быть оценена количественно с помощью теории вероятностей. Или, иначе: идеи теории вероятностей позволяют получить оптимальные способы принятия решений. Поэтому в первую очередь мы обратимся к понятию «вероятность», • 1.2.1. СТАТИСТИЧЕСКАЯ ВЕРОЯТНОСТЬ В повседневной жизни мы встречаемся с различными видами высказываний, в которых используется слово «вероятность» (область значений от «предположительно» до «невероятно» [Walter, 1966]): 1. Рут, вероятно, счастлива замужем. 2. Вероятно, версия генерального прокурора верна. 3. Вероятность того, что выпадет «1», равна 1/6. 4. Вероятность рождения близнецов равна 1/82. Два последних предложения относятся к понятию относительной частоты появления события при одинаковых условиях. При бросании игральной кости мы предполагаем, что в среднем каждая сторона появляется одинаково часто, и, следовательно, ожидаем, что при частом повторении относительная частота, с которой будет появляться «1», равна примерно 1/6. Четвертое предположение исходит также из понятия относительной частоты. В последние годы наблюдается, что относительная частота 39
появления близнецов равна 1/82; таким образом,можно предположить, что предстоящие роды с вероятностью 1/82 могут принести близнецов. В первых двух предложениях условия для применения понятия относительной частоты не соблюдаются. Мы же хотим применять понятие «вероятность» только в тех случаях, которые допускают применение понятия относительной частоты. При частых повторениях относительная частота проявляет поразительную устойчивость. Исторически основой понятия вероятности послужило известное соотношение число благоприятных случаев число возможных случаев — определение вероятности, данное Я. Бернулли A654—1705) и П. С. Лапласом A749—1827). Здесь предполагается, что, как и при бросании игральной кости, все возможные елучаи4 (исходы) равновероятны. Значение вероятности (Probability = Р) изменяется от нуля до единицы: $<*Р]<*\- A.2) Невозможный результат имеет вероятность нуль, а достоверный — единицу. В повседневной жизни""обычно вероятность умножают на 100 и выражают в процентах @% <; Р ^ 100%). Вероятность выпадания любой грани геометрически идеальной однородной игральной кости равна 1/6, потому что любая из шести граней имеет равные шансы. Все шесть граней симметричной игральной кости считают равновероятными, хотя они, естественно, никогда не бывают одинаковыми, хотя бы потому, что на гранях стоят различные числа! Естественно, определение вероятности по Бернулли и Лапласу имеет смысл только тогда, когда все возможные случаи равновероятны, статистически симметричны. Это имеет место в обычных азартныхиграх (орлянка, кости, карты и рулетка). В них наблюдается физическая симметрия, которая имеет следствием и статистическую симметрию. Статистическая симметрия является, безусловно, необходимой в приведенном выше определении вероятности. Речь идет при этом об априорной вероятности, которая может быть также названа математической вероятностью*. При несимметричной игральной кости нет основания говорить о статистической симметрии и нельзя для расчета вероятности воспользоваться приведенным выше соотношением. Здесь может помочь только эксперимент с большим числом бросаний кости. В этом случае говорят об апостериорной вероятности, или о статистической вероятности. Различие между * математической и статистической вероятностью заключается лишь в способе определения самого значения вероятности. Аксиоматическое определение вероятности принадлежит А. Н. Колмогорову A933), который понятие вероятности построил на основе сов- * Это определение вероятности в нашей литературе называется классическим, или, иногда, геометрическим. — Прим. пер, 40
ременной теории множеств, теории меры и на функциональном анализе (ср. [Waerden, 1951]) и тем самым создал теоретический аналог эмпирической относительной частоты (ср. также [Rasch, 1969]). # 1.2.2. ТЕОРЕМА СЛОЖЕНИЯ ВЕРОЯТНОСТЕЙ Совокупность (множество) возможных результатов исследования или опыта образует так называемое пространство событий Q*. Теперь можно поставить вопрос: попадает ли результат опыта в определенную часть пространства событий или нет? Случайные события могут относиться также к частям (подпространствам) пространства событий. При бросании кости пространство событий состоит из шести точек, которые мы нумеруем числами от 1 до 6. В этом примере пространство событий конечно. Но когда кость бросают до тех пор, пока не выпадет число 6, и фиксируется число потребных бросков, пространство событий бесконечно; тогда событиями могут быть все положительные целые числа [Walter, 1966]. Если производятся измерения веса человека или продолжительности сна, то в качестве события (результата измерения) может быть принята точка на натуральной оси. Пространство событий тогда составляют, например, все точки некоторого интервала. Подпространство пространства событий называется событием и обозначается прописной латинской буквой, обычно Е или Л. Следует заметить, что и все пространство событий Q также представляет собой событие, называемое достоверным событием I. В примере с игральной костью / = {1, 2, 3, 4, 5, 6}, т. е. / есть событие, заключающееся в появлении любого числа от 1 до^б. Пусть даньГсобытия Вг и Е2\ часто интересно, попало ли измерение в Ех или в Е2 (или в оба одновременно). Это событие определяется подпространством Ег ^ Е2 пространства событий, которое состоит из точек, принадлежащих Ег или ?2, или одновременно Ег и Е2. Композиция «или», логическая сумма Ег ^ Е2 (записываемая также Ег+Е2), читается как «Е1У объединенное с Е2» (эта композиция называется «объединением» — union) и означает наступление по крайней мере одного из двух событий Ег и Е2. Символ v напоминает букву v (ср. лат. vel, т. е. или — в неисключающем смысле). Пример: Это множество определяет событие: Ех или ?2, или оба вместе» Совершенно аналогично можно говорить о том, принадлежит ли измерение одновременно Ег и Е2. Это событие определяется теми точками пространства событий, которые принадлежат как Ег, так и Е2. Такое множество точек обозначается через Exs-\E2 (композиция «как—так и»), ¦ В советской литературе чаще встречается термин «вероятностное пространство!. — Прим. пер. 41
логическое произведение ( Е2 записывается также ЕХЕ2, читается р Х2 как «пересечение (intersection) Ег и Я2» и состоит в одновременном наступлении событий Ег и Е2. Например: Ег ^ Е2 = {2, 4} /-n {1, 2} = {2}. В случае если Ег и Е2 не имеют общих точек, то говорят, что события Ег и Е2 взаимоисключающие. Операция Ег г^ Е2 образует тогда так называемое пустое множество, которое не содержит ни одной точки. Пустое множество 0 соответствует невозможному событию. Для любого события Е может быть определено событие ?, которое состоит из тех точек пространства событий, которые не лежат в Е. Е (читается «не Е») является противоположным к Е событием, дополнительным "событием или логическим дополнением. Если, например, Е — четное число на игральной кости, то ? — нечетное, или Е = {2, 4, 6}, Е = {1,3, 5}. Очевидно, что E \^J1 = / (достоверное событие); Е ^ Е = 0 (невозможное событие). На приведенной ниже диаграмме отражены эти понятия. Яруги Эйлера > или диаграмма Венна A.3) Е-2Ш ЗаштрихоВано - Заштриходано Е Заштриходано Согласно A.2) вероятность Р (Е) того, что при измерении измеряемая величина х попадет в Е, есть число между нулем и единицей. Для того чтобы сделать основные статистические выводы, предположим, что каждому событию Е может быть сопоставлена его вероятность Р (Е). Это сопоставление не только необходимо, но и достаточно для следующих правил (аксиом теории вероятностей): I. Каждому событию соответстёует его вероятность, число между нулем и единицей: 0<Р(?)<1. A.5) II. Достоверное событие имеет вероятность, равную единице: Р (/) = 1. A.6) 42
III. Вероятность того, что из нескольких попарно взаимоисключающих событий (Et /-ч Ej = 0 для i Ф /, т. е. два любых различных события взаимонезависимы) наступит хотя бы одно («вероятность или —или»), равна сумме вероятностей событий (теорема об аддитивности вероятностей для взаимонезависимых событий): Р (Ег ^Е2^ ...) = Р (EJ + Р (Е2) + ... A.7) Поскольку Е /^ Е = 0 и 1 = рA) = р(Е w Е) - Р(?) + Р(?), тоР (Е) = 1 — Р(Ё). A.8) Примеры на аксиому III 1. Вероятность выпадания 3 или 4 при бросании игральной кости равна 1/6 + 1/6 = 1/3. При достаточно большой серии испытаний число выпаданий 3 или 4 также равно примерно 33%. 2. Если в тотализаторе на скачках поставить на трех лошадей, то вероятность выигрыша равна сумме шансов каждой лошади прийти первой. Вероятность того, что из двух событий Ех и Е2у которые не являются взаимоисключающими, наступит хотя бы одно, определяется следующим выражением: Р (Ех v E2) = P (EJ+P (E2)-P (Ex rs E2). A.9) Диаграмма Венна (а) показывает, что если мы просто просуммируем Р {Eij и Р (Е2), то вероятность «как — так и» Р (Ег /^ Е2) будет участвовать в этой сумме дважды. Это есть теорема сложения вероятностей для взаимозависимых событий. Примеры 1. Пусть из колоды в 52 карты вынута одна и нас интересует вероятность того, что эта карта является тузом или имеет бубновую масть, — эти случаи не взаимоисключеиы; тогда получаем, что вероятность появления туза Р (Е-^ = 4/52, появления масти Р (Е2) = 13/52 и появления бубнового туза Р (Ег г\ Е2) == 1/52: Р (Е1 w ?2) = = Р (Ег) + Р (Е2) — Р{Ег^ Е2) = 4/52 + 13/52 — 1/52 = 16/52 = = 0,308. 2. Пусть вероятность того, что будет дождь, равна 0,7, что будет снег — 0,35, и что оба этих случайных события произойдут одновременно — 0,15. Тогда вероятность плохой погоды равна Р (Е^ Е2) = = Р (Ег или Е2, или оба вместе) = 0,70 + 0,35 — 0,15 = 0,90. 3. Пусть события Ег — появление дамы, Е2 — появление масти черви. Пространство выборок состоит из 32 различных карт, которые могут появиться с равной вероятностью; имеем Р (Ег) = 4/32 и Р (Е2) = = 8/32. Вероятность появления дамы червей Р (Ек ^ Е2) = 1/32 = = Р (Ег)-Р (?2), так что события появления дамы и масти черви независимы. Предположим, что в колоде отсутствуют две карты масти червей (не дама), тогда Р (Ег) = 4/30, Р (Е2) = 6/30, но Р (Ег ^ Е2) = - 1/30 ^Р^.Р^) (ср. с. 44). 43
• 1.2.3. ТЕОРЕМА УМНОЖЕНИЯ ВЕРОЯТНОСТЕЙ ДЛЯ НЕЗАВИСИМЫХ СОБЫТИЙ: УСЛОВНАЯ ВЕРОЯТНОСТЬ И НЕЗАВИСИМОСТЬ На двух предприятиях изготавливаются лампочки накаливания, соответственно 70 и 30% общей продукции. Испытания показали, что из 100 ламп первого предприятия 83 выдерживают нормальный срок службы, а для второго предприятия — только 63. В среднем из 100 ламп 77 нормальных @,83-70+0,63-30), т. е. вероятность купить нормальную лампу равна 0,77. Предположим, что приобретена лампа первого предприятия. Тогда вероятность того, что она исправна, равна 0,83. Безусловная вероятность приобретения исправной лампы равна 0,77; условная вероятность (условие — изготовлена на первом предприятии) равна 0,83. Две брошенные кости дают независимые результаты. Если же они связаны ниткой, то независимость нарушается, причем тем сильнее, чем короче нить. Пусть мы бросаем кость и выпадает 6; при следующем броске шанс снова выкинуть 6 не уменьшается! Он остается равным 1/6 для любого броска. Естественно, предполагается, что в результате броска кость не деформируется. 1. Под условной вероятностью события Еъ при условии, или предположении, что событие Ег наступило — записывается Р (Е2 \ Ег) — будем понимать вероятность, определяемую следующим выражением: AЛ0) что справедливо, естественно, только при Р (Ег) Ф 0, или Р(Е,\Е2)= Р(^?2) A.10а) при Р (Е2) ф 0. Из этих выражений следует теорема умножения вероятностей для одновременного наступления событий Ёх и Е2: Р (Ег ~Е2) = Р {Ег).Р (E%\EJ = р 2. Два события Ег и Е2 называются стохастически независимыми, когда P(Et\EJ = P(Ej A.12) или P&lEl^PiEJ. A.12а) Из этого следует теорема умножения вероятностей для независимых событий.: Р{Е1^Е2)^Р{Е1)^Р{Е2). A.13) Эта теорема справедлива для любого конечного числа независимых событий: Р (Ег ^Е2^ ... /-n Еп) = Р (Ег)-Р (?2)-...-Р (Еп). A.13а) Теперь мы можем дать следующее определение: события являются взаимонезависимыми, если для них справедлива формула A.13а). 44
Примеры применения теоремы умножения вероятностей для независимых событий 1. Какова вероятность того, что при трех бросках игральной кости выпадут три шестерки? 1/6.1/6.1/6=— ?* 0,005. В серии из 216 бросков только один раз подряд появились три шестерки. 2. Какова вероятность того, что в серии из четырех бросков хотя бы один раз появится шестерка? Определим «хотя бы один раз» через отрицание «ни одной шестерки»; вероятность непоявления шестерки в одном броске равна 5/6, в четырех бросках — E/6L = 0,482; тогда вероятность появления шестерки равна 1 — E/6L = 0,518, т. е. немного больше, чем 1/2. Это обещает прибыль в пари на появление хотя бы одной шестерки в четырех бросках, если имеется терпение, деньги и игральная кость безупречна. Аналогично может быть поставлен вопрос: когда имеет смысл держать пари на появление двух шестерок подряд в серии? Вероятность непоявления двух шестерок подряд равна 35/36, так как имеются 36 равновероятных событий 1—1, 1—2, ..., 6—6. Тогда вероятность в п бросках получить по крайней мере хоть один раз две шестерки подряд равна Р = 1 — C5/36)". Р должно быть больше 0,5, т. е. C5/36)" < 0,5, п lg C5/36) < lg 0,5, откуда п > 24,6. Мы приняли п lg C5/36) = lg 0,5 и получили п_ lgO,5 _ lgO,5 _ 9,6990—10 _ — 0,3010 П ^C5/36) Ig35 — Ig36 1,5441 — 1,5563 —0,0122 Итак, можно держать пари на появление двойной шестерки в 25 бросках; вероятность этого события немного больше, чем 50%. Шевалье де Мере выиграл большую сумму денег на пари — при четырехкратном броске появится хоть одна шестерка, — и проиграл ее, поспорив на появление двух шестерок подряд в серии из 24 бросков: 1 — C5/36J4 = 0,491 < 0,5. Переписка Пьера де Ферма A601—1665) и Блеза Паскаля A623— 1662), из которой и получил Шевалье де Мере решение упомянутой выше задачи, привела в 1654 г. к появлению исчисления вероятностей, которое позже Якобу Бернулли A654—1705) послужило основанием для построения теории вероятностей [Westergaard, 1932], [David, 1962], [King, Read, 1963], [Freudenthal, Steiner, 1966], см. с. 514. 3. В юности от девушки своей мечты требуют греческого носа, тициановского цвета волос и первоклассного знания статистики. Примем, 45
что соответствующие вероятности равны 0,01; 0,01; 0>00001. Тогда вероятность того, что первая встреченная молодая дама (или любая выбранная случайным образом) обладает указанными качествами, равна Р = 0,01-0,01-0,00001 = 0,000000001, или одной миллиардной. Естественно предположить, что эти три признака не зависят друг от друга. 4. Три орудия стреляют независимо друг от друга в один и тот же самолет. Каждое орудие при данных обстоятельствах имеет вероятность попадания, равную 1/10. Чему равна вероятность того, что самолет будет сбит? Иначе говоря, чему равна вероятность хотя бы одного попадания? Вероятность того, что ни одного попадания не будет, равна (9/10K. Тогда вероятность того, что будет хотя бы одно попадание, равна /> = 1—(9/10K= 1—?*L=:-^L = 27,lo/o V ' 1000 1000 (ср. Р = \— (9/10J8 = 94,8% или Р = 1 — A/2L = 93,7%). 5. Из колоды вынимают четыре карты. Чему равна вероятность того, что: а) это будут 4 туза? б) карты будут одинакового достоинства? Вероятность вынуть из колоды одного туза равна 4/52 = 1/13. Если вынутая карта возвращается в колоду, то вероятность вынутЬ подряд двух тузов равна 1/13• 1/13 = 1/169; если не возвращается, то эта вероятность равна 1/13-3/51 = 1/221. При возврате карты вероятность события не изменяется, постоянна; без возврата карты эта вероятность меняется на каждом шаге. Получаем: для случая (а): Р = 4/52-3/51-2/50-1/49 = 6492744(Ю « 3,7-10; для случая (б): Р = 13-4/52-3/51-2/50.1/49 = 6 497400 = 4>8'10~5- 6. Наугад выбраны 24 человека. Какова вероятность того, что хотя бы у двоих совпадут дни рождения? Интуитивно представляется, что эта вероятность мала. На самом деле она около 27/50 = 0,54, или 54%! Вероятность того, что дни рождения двух произвольно выбранных людей совпадают, равна 1/365. Тогда вероятность несовпадения равна 364/365. Вероятность того, что день рождения третьего отличается от дней рождения двух предыдущих, равна 363/365, ... и для 24-го она равна 342/365. Если теперь мы все эти числа перемножим, то получим 23/50 — это есть вероятность того, что все дни рождения не совпадают. Иными словами, пари о том, что из 24 человек хотя бы двое родились в один и тот же день, при достаточно большой серии испытаний имеет смысл заключать, так как только в 23 случаях из 50 будет проигрыш, а в 27 случаях — выигрыш. При этом мы не учитывали 29 февраля и тот факт, что на иные месяцы дни рождения падают чаще. Первое уменьшает вероятность выигрыша, а второе — увеличивает. 46
Вероятность того, что в группе из п человек по крайней мере у двоих совпадают дни рождения, определяется формулой л 365-364- ,..-C65- 365« ' К ' } При п = 23 Р = 0,507, при п = 24 Р = 0,538 и при п = 50 Р - 0,970. Наусс [Nauss, 1968] составил таблицу вероятностей того, что в группе из п человек (п ^ 35) хотя бы двое имеют дни рождения, находящиеся в интервале d дней (d^ 30) (например: 1. п = 7, d = 7, Р = 0,550; 2. Л = 7, d = 21, Р = 0,950; 3. л = 15, d = 10, Р = 0,999; ср. также [Gehan, 1968], [Faulkner, 1969], [Glick, 1970]). Примеры на условную вероятность 1. В урне содержатся 15 красных и 5 черных шаров. Событие Е± соответствует появлению красного шара, Е2 — черного шара. Чему равна вероятность того, что в двух последовательных испытаниях появится сначала красный, а затем черный шары? Вероятность вынуть красный шар равна Р (Ег) = 15/20 = 3/4. Вероятность вынуть черный шар после того, как вынут красный шар и назад не возвращен, равна Р (Е2\Е1) = 5/19 ~ 0,26. Вероятность в двух последовательных испытаниях вынуть красный шар и затем (без возврата) черный равна Р (Ег) -Р (E2\EJ = 3/4-5/19 = 15/76 ~ ^ 0,20. 2. Пусть в среднем 10% населения в заданный промежуток времени были больны (Р (Ег) = 0,10). Из этих больных, как правило, около 8% умирали (Р (Е2\Е1) = 0,08). Тогда условная вероятность этого события равна 0,08 (условие: заболевание). Вероятность того, что человек, принадлежащий к данной группе населения, в рассматриваемый промежуток времени заболеет и от этой болезни умрет, равна Р (Ег * Е2) = Р (EJ-P {Е2\ЕХ) = 0,Ь0,08 - 0,008 - 0,8%. Врач в этом случае бы сказал: заболеваемость — 10%, летальность — 8% и смертность — 0,8%, т. е. смертность = заболеваемостьх X летальность. Мы пойдем еще дальше: при некоторой другой болезни 20% людей могут подвергнуться воздействию инфекции (Ех), из них в определенный промежуток времени могут заболеть 30% (?2), из которых, наконец, 5% могут умереть (Я3). Тогда смертность, которая равна числу смертей в определенный промежуток бремени, деленному на полное число наблюдаемых событий, определится как Р (Ег ^Е2^ЕВ) = Р (EJ -Р (E2\EJ-P (Ев\?2) - 0,20-0,30 X ХО,О5 = 0,003 = 0,3%. Поскольку можно говорить о вероятности некоторого события только при точно определенных условиях, то, по существу, любая вероятность является условной вероятностью. Безусловной вероятности в собственном смысле этого слова не существует. 47
Эта маленькая сводная таблица (табл. 7) — обратите внимание на указания в правом столбце—содержит формулы для расчета вероят ности того, что при независимых событиях Ег и Е2 с вероятностями Р (Ег) и Р (?2) наступит: Таблица 7 Событие Оба Ни одного Или Еъ или Е2, но не оба вместе Или Elt или Е2> или оба вместе Ни Еъ ни Е2 Или оба, или ни одного Ei, но не Е2 Вероятность Р(Е1)-Р(Е2) 1 Р(Ег).Р(Еь) P(?j -|_ p(Ej _ 2Р(Е1)-Р(Еь) Р(?х) _j_ p(?2) _ PlEJ-PiEJ 1 - Р(?х) - Р(Ег) + Р(БХ) .Р^а) [1 -Р(ЕгIи -PlEM+PiEJ-PlEJ PlEJ.[l-P(EM Пример P(?i)-0,10; Р = 0,001 — , Р = 0,999 Р = 0,108 Р = 0,109 Р = 0,891— Р = 0,892 -J Р = 0,099 1.2.4. ТЕОРЕМА БАЙЕСА Пусть А19 А2, ..., Ап — взаимоисключающие события. Объединение всех At образует достоверное событие, полную группу событий. Тогда теорема Байеса гласит: вероятность того, что событие At наступит при условии, что событие Е уже наступило, определяется выражением DiA |пч__ P(Aj).P(E\Ai) . P (Е\ Ах) + ... +Р (Ап)'Р (Е\ Ап) P(Ai\E)= A.16) Примеры 1. Две машины на некоторой фирме производят соответственно 10 и 90% общей продукции определенного вида. Предположим, что вероятность брака на первой машине равна 0,01, а на второй — 0,05. Чему равна вероятность того, что наугад взятое из дневной продукции изделие изготовлено первой машиной, если оно оказалось бракованным? Применим теорему Байеса. Е — событие, заключающееся в том, что изделие бракованное, Ах — изделие изготовлено первой машиной; Л 2 — изделие изготовлено второй машиной. Р (изготовлено 1 машиной | брак) = Р (Лг | ?).
Р (А2)Р (Е | А2) P{Al\E) = *4±±П = -L ^0,022. V l{ } 0,10-0,01 +0,90-0,05 46 2. Пусть имеются две урны, вероятности выбора которых соответст*- венно равны 1/10 и 9/10. В первой урне содержится 70% черных и 30% белых шаров, а во второй — соответственно 40 и 60%. Какова вероятность того, что черный шар вынут из первой урны? Е — вынут шар черный, Аг — шар вынут из урны 1 и Л2—шар вынут из урны 2. 0 100 70 Р(из урны И черный) =0I00>70+;90М0 =0,163. Это означает, что при многих испытаниях в 16,3% всех случаев черный шар будет выниматься из первой урны. 3. Предположим, что надежность определения туберкулеза при рентгеновском просвечивании грудной клетки составляет 90%, т. е. 10% тбц-носителей остаются неопознанными; вероятность неправильного определения тбц у здоровых людей составляет 1 %. Просвечиванию была подвергнута большая группа людей со средним процентом больных 0,1%. Какова вероятность того, что люди, которые признаны больными, действительно являются тбц-носителя- ми? Е — просвечивание определило наличие тбц, Аг — человек болен,, А2 — человек здоров. Р (тбц-носитель | полож. результат просвечивания) = ~~ 0,001-0,9 + 0,999-0,01 ^ °'0826' т. е. мы нашли, что из общего числа людей, признанных больными, только 8% являются действительно тбц-носителями. В среднем рентгеновские исследования дают 30% неправильных отрицательных и 2% неправильных положительных диагнозов. 4. В бюро работают 4 секретарши, которые отправляют соответственно 40,10, 30 и 20% исходящих бумаг. Вероятности ошибки при этом соответственно равны 0,01; 0,04;, 0,06 и 0,01. Чему равна вероятность того, что некоторый документ неверно адресован третьей секретаршей? Р (секретарша №3 | документ неверно адресован) = 0,30-0,06 ~~ 0,40-0,01 + 0,10-0,04+ 0,30-0,06+0,20-0,10 — =0391 Ничего себе, 39% всех ошибок! 49-'
Для упражнения проведите аналогичные расчеты для каждой секретарши и результаты представьте в виде соответствующей графы табл. 8. Подробнее о теореме Байеса и о так называемой байесовой статистике см. [Barnard, 1967], [Cornfield, 1967, 1969], [Schmitt, 1969], [de Groot, 1970], [Maritz, 1970]. Таблица 8. Сводная таблица первых трех примерев на теорему Байеса Справа стоит значение Р(ЕХ Г\ Е2)=Р{Е{)-Р{Е2\ЕХ). Для примера 1: 0,001=0,10-0,01 и т. д. Стрелками отмечены произведения, которые входят в формулу Байеса. Пример I Машина^ (М) Пример Л Урна (У) < Пример Ш Население 0,ю' 0,90^ ^0,10 /С ТбЦ. 0,001 \ 0,999 без тбц качество продукции (к) 0 собран (Б) ">™^без бра на 0,05-^бран °' 95^без драна Доли (Д) 0 70^черный шар (ш) °'30^6ель/й шар о ^черный шар 1 ^белый шар РентгеноВсное обследование (Р) 090/ положит. ^положит. 0. ЗУ^отрицат. Произведение Вероятностей о. 001** 0,099 0, 045^ 0, 855 1, 000 0,07+ 0,03 0,36 + 0,5U 1,00 0, 00090* 0, 00010 0,00999* 0, 98901 1, 00000 ф 1.2.5. СЛУЧАЙНЫЕ ПЕРЕМЕННЫЕ Случайный процесс называют также стохастическим процессом. СлучайнаЯу или стохастическая, переменная—это величина, характеризующая исход случайного эксперимента, например продолжительность горения лампы накаливания. Случайная переменная сопостав- 50
ляет каждому исходу эксперимента число. Если проведен эксперимент, при котфом случайная переменная X приняла значение х, то х называют реализацией X. Генеральная совокупность есть множество всех возможных реализаций случайной переменной, выборка — это я-мерная реализация, или реализация, состоящая из п исходов. Значения суть действительные числа, которые можно представить десятичными числами с конечным B, —4) или бесконечным числом знаков, периодическая дробь (—7/3) или непериодическая (V2, lg 3, я, ё). Вероятность события, что X примет некоторое значение из интервала от а до Ь, будем записывать в виде Р(а<.Х<.Ь). Соответственно достоверное событие имеет вероятность Р (—оо <Х< оо), X обязательно примет одно из значений на числовой оси. Вероятность того, что X примет значение большее, чем с, записывается в виде Р (X > с), и поскольку Р (X > с) + Р (X ^ ^ с) = 1, то для любого с справедливо равенство Р (X > с) = 1 — Р (X < с). A.16) Пример Пусть число, появляющееся при бросании игральной кости, есть X; тогда Р (X = 6) = 1/6. Р E < X < 6) = 0; Р E < X < 6) = 1/6; Р A < X < 6) - 1; Р E < X < 6) = 1/6; р (X > 1) = 1 — Р (X < 1) = 1 — 1/6 - 5/6. 1.2.6. ФУНКЦИЯ РАСПРЕДЕЛЕНИЯ И ФУНКЦИЯ ВЕРОЯТНОСТИ 1 Распределение вероятностей случайных переменных определяет, с какой вероятностью переменная может принять данное значение. Распределение вероятностей случайной переменной однозначно определяется так называемой функцией распределения F(x) = P(X^x). A.17) Она задает вероятность того, что случайная переменная X примет значение, меньшее или равное х. F определена для всех действительных значений х и монотонно возрастает от нуля до единицы, F (х) называют также накопленным (кумулятивным) распределением вероятности. Пример В качестве примера рассмотрим эксперимент с игральной костью. Вероятность выпадания любого числа равна 1/6. F (х) принимает следующие значения: 1 Раздел 1.2.6 при первом чтении можно опустить, так как его содержание несколько сложнее предыдущего и в дальнейшем тексте не используется. 51
X Fix) х<1 0 1<*<2 1/6 1/6+1/6=1/3 3<g*<4 1/6+1/3 = 1/2 4<^x<5 1/6+1/2=2/3 5^*<6 1/6+2/3=5/6 1/6+5/6=1 Мы получили так называемую ступенчатую функцию. Она скачком возрастает при тех значениях х, которые Х{ принимает с вероятностью 1/6. Между двумя соседними ступеньками функция постоянна. Начертите эту функцию (абсциссы х — целые числа от 0 до 1\ ординаты Р (X ^ х) — интервал от 0 до 1, разделенный на 6 частей). Если случайная переменная на определенном интервале принимает только конечное число значений, то говорят о дискретной случайной переменной, которая, как в случае с игральной костью, изменяется только скачками (например, число детей, доход). Имеется другой способ описания распределения вероятностей случайной переменной. Так, в случае с игральной костью достаточно указать вероятности появления числа (Р (X = xt) = 1/6). Вообще для дискретной случайной переменной обычно задают соот-. ветствие между значениями хг и вероятностями / (xt) в виде функции вероятностей (probability function, frequency function). Для дискретной случайной переменной функция распределения получается простым суммированием значений / (хг). Для непрерывной случайной величины, например для длины, веса, скорости и т. д., функция распределения получается интегрированием так называемой плотности вероятности (probability density function), или функции плотности. Она однозначно определяет распределение. Между функцией вероятности или плотностью вероятности и функцией распределения имеется следующая зависимость: 1. Для дискретной случайной переменной X f(xt) — функция вероятностей. 2. Для непрерывной случайной переменной X F(x)= I f{t)dt. A.18) A.19) / (t) — плотность вероятности (с» = бесконечность). Для более наглядного представления плотности вероятности следует заметить, что при очень малом интервале dt вероятность того, что X попадет в интервал (t, t + dt), приблизительно может быть задана дифференциалом / (t) dty что обозначают так же, как элемент вероятности: A.20) 52
Отметим, что \ l A.21) и в особенности b ^ A.22) Вероятность события а < X ^ Ъ равна площади под кривой плотности вероятности / (X) между х = а и х = 6. Теперь мы можем дать определение дискретной и непрерывной случайных переменных (discrete random variable, continuous random variable): 1. Случайная переменная Х, которая может принимать только конечное или счетное множество значений, называется дискретной. Соответствующая функция распределения изменяется скачками. 2. Случайная переменная X называется непрерывной, когда соответствующая ей функция распределения A.17) может быть представлена в интегральной форме A.19). Значения, которые в этом случае может принимать случайная переменная, образуют континуум. В то время как вероятность Р определенного события при дискретном распределении обычно имеет смысл, для непрерывного распределения ее определить нельзя (например, вероятность того, что яйцо будет весить 50,00123 г), поэтому определяется вероятность того, что переменная X меньше а (<а) или больше или равна а (^а). Поскольку эта книга написана для практиков, в дальнейшем мы не станем учитывать разницы между X и х и будем везде писать х. 1.3. ПОДХОД К НОРМАЛЬНОМУ РАСПРЕДЕЛЕНИЮ Ф 1.3.1. ГЕНЕРАЛЬНАЯ СОВОКУПНОСТЬ И ВЫБОРКА Монеты, кости, карты суть элементы азартных игр. Поскольку каждый случайный эксперимент или случайное массовое явление может быть приближенно представлено урновой моделью, то можно вместо подбрасывания монеты вынимать шар из урны, в которой содержатся Два шара, отличающихся только надписями В и П (выигрыш и проигрыш) Вместо бросания кости можно вынимать шар из урны, содержащей 6 шаров с цифрами 1, 2, 3, 4, 5, 6. Вместо карты из колоды можно вынимать шар из урны с 52 пронумерованными шарами. Этой урновой модели следует предпослать такое замечание. Мы отмечаем числа 0, 1, 2, ... на шарах как признаки или значения, а появление какого-либо значения из урны — как событие. Поэтому можно воспринимать эти значения как возможные события. 53
Задача математической статистики — на основании одной или нескольких выборок сделать вывод о всем содержимом (генеральной совокупности) урны. 52 шара образуют коллектив, или, лучше сказать, генеральную совокупность. Если содержимое урны хорошо перемешать, то каждый элемент генеральной совокупности, каждый шар получит равный шанс быть вынутым. Сама выборка также имеет случайный характер, поэтому мы будем говорить о случайной выборке (random sample). Число элементов в выборке — от 1 до максимум 51 — будем называть размером, или объемом, выборки. Совокупность возможных выборок образует пространство выборок. Относительная частота появления игральной карты-признака есть вероятность этого признака: она составляет для любой игральной карты или соответствующего шара 1/52; для появления короля — 4/52 = 1/13, для появления масти пик — 13/52 = 1/4 и для любой черной масти — 26/52 = 1/2. Относительная частота признака в выборке является оценкой вероятности этого признака. Оценка будет тем точнее, чем отчетливее случайный характер выборки и чем больше ее объем. Предполагается, что все наблюдения независимы. При конечной генеральной совокупности независимость достигается тогда, когда после каждого испытания вынутый элемент возвращается в генеральную совокупность, которая затем перемешивается, — урновая модель с возвратом. Число выборок с возвратом может рассматриваться как бесконечное, что является весьма важным моментом математической статистики. Если при конечной генеральной совокупности элемент не возвращается после испытания — урновая модель без возврата, — то соотношение в оставшейся части непрерывно изменяется. Каждое наблюдение в этом случае зависит от результатов предыдущих испытаний. Мы говорим о сопряженной или «нанизанной» вероятности, которая описывается так называемыми цепями Маркова (А. А. Марков, 1856— 1922): каждое наблюдение зависит от одного или ограниченного числа непосредственно предшествующих наблюдений. Подробнее об этом и других классах случайных последовательностей, в которых случайные переменные не являются независимыми во времени, — эти последовательности образуют математически весьма интересную и важную область стохастических процессов — следует обратиться к [Bartlett, 1955, 1960, 1962], [Feller, 1957, 1966], [Bharu- cha-Reid, 1960], [Parzen, 1960], IKemeny, Snell, 1960], [Kullback, Mitarb, 1962], [Lahres, 1964], [Gurland, 1964], [Takacs, 1966], [Wold, 1965], [Deming, 1963] и [Armitage, 19663. На стохастических процессах основаны многие теории и модели явлений физики малых и мельчайших частиц (броуновское движение молекул, явление диффузии, радиоактивный распад, квантовые состояния атома), развитие населения (рождения, смерти, иммиграции, возникновение и развитие рака, распространение эпидемий [Dietz, 1967]), качество сложных электронных комплексов (в эксплуатации, хранении, ремонте), так называемые проблемы очередей (театральные кассы, самолеты, ожидающие взлета или посадки; особо интересные вопро 54
бы здесь о среднем и максимальном времени ожиданий и длине очереди) и модели прогнозов для генетических проблем, а также для инвестиционных, кадровых и других организационных задач. Литература по стохастическим процессам собрана в конце библиографии к главе I. Теория очередей называется теорией массового обслуживания: основные проблемы здесь относятся к выбору количества каналов обслуживания при случайных колебаниях потока потребителей и определению возможных очередей. Примеры: клиенты — парикмахеры, корабли — доки, больные — врачи, пожары — пожарные команды, изделия — машины, отказы оборудования — механики, телефонные разговоры — каналы — показывают большое число реальных систем массового обслуживания (универсальные магазины, фабрики, телефонные узлы), см. [Doig, 1957], [Schneeweiss, 1960], [Сох и Smith, 19611, [Ferschi, 1964], [Lee, 1966] и [Saaty, 1966]. Обратимся снова к урновой модели выборки с возвратом. Распреде* ление вероятностей по различным признакам будем называть просто распределением. Характеристические величины распределения имеют числовую меру. Такие числа, как относительная частота, среднее значение или стандартное отклонение, которые относятся к генеральной совокупности, будем называть параметрами. Числовые значения, рассчитанные на основании выборки, будем называть оценками, или статистиками. Параметры будем в большинстве случаев обозначать греческими буквами (табл. 9), для оценок будем употреблять латинские буквы. Таблица Греческие буквы А а в р Г v А 6 Е 8 Z С Н т) е и 9. Греческий алфавит Наименования букв альфа бета гамма дельта эпсилон дзэта эта тхэта Греческие буквы I I К к А X М |А N v s i О о П я Наименования букв йота каппа ламбда мю ню кси омикрон пи Греческие буквы Р р 2 а Т т Г с Ф ф X к W ф Q со Наименования букв ро сигма тау ипсилон фи хи пси омега Так, относительную частоту, среднее значение и стандартное отклонение для генеральной совокупности будем обозначать: л (пи), \i (мю) и а (сигма), а их оценки по выборке — р, х и s. Элементы, которые образуют генеральную совокупность, почти всегда отличаются друг от друга. Если же они одинаковы, то изменчивость вносится ошибками измерения. Эта изменчивость приводят к колебаниям между выборками, группами, которые отбираются из генеральной совокупности. 55
Дли того чтобы по выборке можно было судить о генеральной купности, выборка должна быть максимально близкой к генеральной совокупности, она должна быть репрезентативной. При такой выборке каждый элемент генеральной совокупности должен иметь равную вероятность быть представленным в выборке. Согласно закону больших чисел различие между выборкой и генеральной совокупностью уменьшается с увеличением объема выборки. При определенном объеме выборки это различие столь мало, что дальнейшее увеличение объема выборки становится неоправданным! Вернемся к вопросу о том, что понимать под репрезентативной выборкой. Случайные выборки, которые отбираются случайным образом из генеральной совокупности, являются репрезентативными. Часть генеральной совокупности может представлять собой репрезентативную выборку также и в том случае, когда отбор не чисто случайный, но признак, по которому он ведется, не зависит от оцениваемых признаков. # 1.3.2. ПОЛУЧЕНИЕ СЛУЧАЙНЫХ ВЫБОРОК Простым способом получения действительно случайной выборки является лотерея. Например, из генеральной совокупности в 652 человека необходимо получить две выборки (I и И) по 16 элементов. Возьмем 652 карточки, заполним любые 16 цифрой I и 16 — цифрой II, 620 останутся пустыми. Если теперь предложить 652 людям вытянуть карточки, то тогда и будут получены требуемые выборки. Еще проще эта задача решается с помощью таблицы случайных чисел (табл. 10). Пусть таблица содержит пятизначные числа; предположим, что нам требуются 16 случайных чисел, меньших, чем 653. Будем двигаться по таблице слева направо, обращая внимание на тройки цифр и выписы* вая только те, которые меньше 653. Первое число отмечаем вслепую концом карандаша (например, третий столбец, шестая строка снизу — 17893) и далее слева направо: 178 (935 — отбрасываем), 317, 607, 436, 147 (997, 819, 748 — отбрасываем), 601 и т. д. Когда из генеральной совокупности N элементов необходимо получить выборку п элементов, можно рекомендовать следующие правила: 1. Пронумеровать элементы генеральной совокупности числами от 1 до N. Если N = 600, то следует нумеровать элементы трехзначными числами от 001 до 600. 2. Выбрать произвольную цифру таблицы за исходную и прочесть 3 ближайшие цифры (если генеральная совокупность имеет размер, описываемый 2-значным числом, то взять группу z ближайших цифр). 3. Когда считываемое число меньше N, то оно заносится в выборку; если это число больше N или оно уже встречалось, то оно отбрасывается и берется следующее число из трех цифр, и т. д. до тех пор, пока не будет отобрано п чисел. Старейший метод получения случайных чисел, которые лучше называть псевдослучайными числами, основан на мегоде «средних квадратов» фон Неймана: s-значное число (s — простое) возводится в квадрат, затем выбираются средние s цифр 2з-значного квадрата. Это 56
число снова возводится в квадрат и т. д.; эти s-значные числа представляют собой псевдослучайную последовательность. Хорошие последовательности могут быть получены также при использовании десятичного разложения известных иррациональных чисел, таких, как У 2, Уз, я; и большинства логарифмов. Подробнее о значении, получении и проверке случайных чисел см. [Teichroew, 1965], [Good, 1969]. На примеры важных случайных перестановок ([Moses, Oakford, 1963], [Plackett, 1968]) только кратко укажем (например, [В. Sachs, 1970]). Прогнозы Каждому приходится иметь дело с ненадежными прогнозами погоды, с долговременными планами и прогнозами в промышленности и политике. Так как будущее нам сегодня не известно, исследование будущего (футурология) стоит перед вопросами о том, что может быть на переднем крае в интересующей нас области. На некоторых аспектах прогностики стоит коротко остановиться. Распространение выводов, получаемых по выборке, на всю генеральную совокупность, используемое при предварительных расчетах результатов выборов, в официальной статистике, при изучении рынка или общественного мнения и т. п., называется предсказанием (Hoch- rechnung), так как при этом частота появления признака пг1пу определенная по выборке, умножается на число элементов в генеральной совокупности N и образует оценку Nt = -%~uN. Примерно так компьютер по немногим поступившим данным предсказывает результат выборов [Bruckmann, 1966]. Долговременные прогнозы, или, лучше сказать, предварительные оценки, например, роста населения, потребления энергии, рынка рабочей силы, образуются на основе анализа тенденции развития; реже, но с большими предубеждениями и большими ошибками — на основании аналогии (и интуиции). Среди немногих известных источников ошибок следует указать на неучет обратного влияния правильных, разумных предсказаний («Vorkoppelung», «forecast feedback»). Предсказанная в 1955 г. в США оезкая нехватка научных кадров в 1965—1970 гг. не реализовалась. 1исло учащихся выросло скачком (вероятно, вследствие этого мрачного прогноза). Этот пример отчетливо показывает возможное влияние предварительных прогнозов (см. также [Wold, 1967], [Kahn, Wiener, 1968], [Baade, 1969], [Bright, 1969], [Jungk, 1969], [McHale, 1969], [Flechtheim, 1970], [Polak, 1970], [Steinbuch, 1970], [Theil, 1966], [Wagle, 1966], [Montgomery, 1968], [Cetron, 1969]). Если необходимая для прогноза информация полностью или почти отсутствует, то пользуются методом опроса компетентных специалистов, методом экспертных оценок. Способ заключается в том, что экспертам выдается тщательно продуманная анкета. Слишком субъективные и необычные мнения можно исключить тем, что сообщать участникам остальные ответы, чтобы каждый еще раз мог продумать свое мнение с учетом остальных (англ. . 57
CON-h LOCO 00 CO О) Ю CO LO O> N NO *—• "^f oo oo со . , 3 N COO-<OON "T 00 CM TH CO — Ю00 CT> CM 4^. —• _ CD — 00 CO LOrf tJh — rf NNCO > CD Ю О СО > СО СО СМ О «)IOOCO(N О О СМ СМ Ю -ф О5 О5 N — O5 Ю CO CO CM N CD CD CD O5 COCO ЮСМ — NCM О COO J CM N N С * со oonc CM ** LON —« cDO "f ЮСМ lO — CO О CO (NOC0NN см —• сою n O5 0ОЮ CO CM oo CD N oo CO n см — см со CM CO—1 00 CM N O5 CD •* CO CO "tf C oooo Ю —• o ю - 00 "* СМ С _. , _> ^ N О NCMlOC ЮСМЮСМО О5СОСМСМС CO00N— т}< COCO —Ю« — ЮСО С , - О5Ю СО С — СО^СОО COOCOL . . ,- СО О Ю СОСМ — О СО— CM CON СО < O00^ N О CD CO i CO O5 OO CO О500СМ00С0 ЮСМСМСОСО СМ Ю ^ — CM NCMC0CON О СМ СО 00 СО О СО1--' 00 СМ ОХГОСМЮ — TfCONCDOO СО—CMN — CMNOOCO СОООООСМ'^ OJ» N N N OO СО О5 О О С — rf N— СМ 1 СМ СМ . _ . _ . . ТНСМООО"* СМСМСМ— СМ TfCOCMCMO O00N— О COCO^^OO OOit-iOC 00 CO t4-- LO O5 OOlOOO^C >l> CO CM ^—'CM O500COCMC OOt^-COOOOi t^O5l>-CMC NOOOOOO ЬЮОО! 00ОЮ00Ю LOOOCOCMCM C0C0OO5C0 ОЬ'ФСОО OcOOiCOC CM CO LO N *-< CO —« 00 00 " -hOIOOO LO-^OO^tH (NOCOCNN t^-LOC005CM 00 CO t4-" CO lO lO "™^ CO ^ ^t4 ^f oo^юсо сосло^оо —4 LO »—' O5 Tf Ю 00 CO CO CO 5Ю ^Э СМ ^* 00 00 CM LO O5 Tt4 СО О 00 "^ СМ СМ О~«1>~ЮЮ C000CDC5N О Ю О '—• О ~-' N 00 ^ Ю CD00NCO00 COCDNЮCD О5 — 00 СМ 00 _О),—I,—«,—< 05CDOOC0 . СО — — CDC0 «—< СО— N СО O5CD00OCO 1—н О0 00 ""^ LO O5 СО """• 00 N О) 00 ^ СО 00 СМ О СО О СО О5 — ЮС75СО CO^N — CM ,-< <M "Ф —< CO -hINOOOO) OOCOO-CO — CM4* COCO 00 <M t- t4- —« CM LO O5 t^- Ю CM CM — О 0>l>-000000 CMt^-^^CO OCMO^—00 О5СО— CO ^h fCMLOOO ICOOO ЮО5СМО500 LOCMOO—i 00 OOOOCMCDOO CMOOCOOOh- »-<COt^CMCO OCDCOrH Ю l--t>-ThO5-H СООЭ00СМ00 "СМ1Л05СОО O5 t^- Tf 00 LO CMf-'^FCMCM СО CM N-O ^ О CM CM O5 " N <—< СО ^ СМ СМ СО О О5 С -IONCN(N 00 — rff- CDCMcMOt4- CON-^fCOCO СО^СОООО "Э— О0 СМО5— СО — ThLOсо со со о о OiOiCOCOOO "f LO O) O> C75COOOCOLO OOOCOOO cOr СО; 00CDCDCMO5 tFcMOOCO — -^*Ю— CM CO CM— N^O5 O со O OO f LO O) O> C LO OOOCOOOO CM OOCMO^OOt C0O5C000CO ^lC(NO LOCOOOt^-CD — — 0005 t^b0005 00 0)tDN 05 0 0)D hooh Ю CO oo — CM 00 Ю ^* ^ CONOO о см г^- О5 со ThoocMi L005O5OC0 — O5 О OOOOOCOCO OCO OOCONO CO CO ^" IN- LO 00 Oi CM Г*- 00 OCO — CO CM CMOO— COCO C0OC0CM05 ff^fcM locmc LO Tf O) CO CO CO CO С CM ч*1 CO rf О CM О Tfr< CO t-- l>- LO "^ О со rh см oo — CO4* О — LO -^ lN- CO "^ t^ — CO h- O5 Tt* t- 1 со со О (NONOiOJ со t-- — CD со <J> CO LO CO CM — о о t^- c^ b- "^ COLO CO — О- О О5 00 LO CO CO О "«f — LO OO CD LO —i — 00 Ci ~ — O5— ЮО5 OCMLOCMCM Oh-ООЮОО lO-^OO^N lOOsOcdcO cOC0t*-O5CO O5LO— О 00 OOCOIN-LOO O> '-*' О CO «—• О NN NO 00С0ОЮ0) CD I4* CM "^ *~* N00 CM CD О LO CO OcOO ONLOcMO ^-^сО со N О) —< CO X •^ — CM -^ N со coco о см CO COLO ^f О О ^ O5 ^ ^h O5 O5 tF O5 rh CO N Tt<00 LOO5 00 COCO О CO- CM N LOO О — О N CO ^ CD CO N CO N ^ — CM О О 00 CO CM N CD CO CO 00 00 CM (NO — ^lO О CM O5 CD — CO CM 00 — CM 00 LO COLO 00 LO CD CO LO О — CM CM C. CM LO 00 О LO CM O)^N(MN N O5 CO CM O5 О N N О Ю CM — О OO CD ** CM O5 O5 <ф CM CO LO О 00 N LO 00 CD N Oi N О CO LO CO LO ^ Tf CO -и 00 N 00 CM О CO CD — CT> CM — CT> rf rt< CM CDOQ CM OO 00 CM N Ю CO CO GO О Oi LO CO CON СОЮ О CM CM LO ^t4 CO O5 -^ CO CM LO 00 C0O5 O5 LO CO *—< 00 "^ 00 CD CD "^ О i—i *-~> см Th см 00 "^ ^ LO CM N О LO 00 CD CO О LO —* Ю O) cD»h ts.flfi 00 00O — О O5 СО СОЮ00 LO N CM LO Ю 58
6S СЛСТ>»—COCD ©tOSlOOCO t—. CO О CD CD •— CD tO tO 4^ CO SI 4». tO CO CD CO © СЛ tO -4.—СОСОЮ tOCOCnCOCD СЛ bO Si CD tO 00 CO СЛ 4s*» СЛ 4* CO 00 >—tC ,. tO CO CO 00 S| SI CD >— CD СЛ 4*. 45». CD СЛ СО СО Ю >— CO SI СЛСО •— tOCO CO CO 4*» CO tO «—' Qo SI >— © СЛ 45» CD СЛ 00 00 4* S| CO CD © 00CO tOd^ )COCO© и-i— tOCO© ' ' ~ S» Q i-J to 00©4-*CO4s» COtO4s.CnSl •—OltOQO*— 4^CO >— SJCD СЛ >— СЛ 00 SI OO »— CD CO OO О tO 00 SJ 4*. CO >— 00 00 CO ©СЛ©©© CO4s»h 4*. © SI CO 4* © Ооь— OCO 00CO CO CD >— »— ни- CD © too юсо СЛ CD CD SJ CO 0 CD © 4*. © CO tO CO © 4* © 00 CO to cn si сл сл cd si сл si oo Ю 4*. CO CO СЛ 4»» tO CO СЛ •— CO CD tO tO 00 CO004s»COCD >—CO»—СОСЛ 45»- CO 4»» SI CO SJOOCOCDS) •—tO 00 tO 0O СТ>СЛСО-<1СО ЧОЮ СО )н-СО00 si to t _ tO 00 © ©CO _ 00 SJ tO СЛ tO © 00 0O CD4*.COCO© — - — 45*СЛ00»О© l 00J СТ5 CD COCO O О 4 СТ5 0 Со CD GD О 00 С •—' CD СЛ й5»- О 4СЛ^Ю СЛ4^ЬОСО -sj i— 4з» ОЭ СЛ ОСЛ»-СОЧ ©СТЭЬОСЛСЛ tO 4s. CD »—* CT) ~vj CO 00 СЛ 4^ Ю^СО tDO CO >— CO CD ~*J CO СЛ CO © © СЛ *~* ь™- 4^ 00 TtOSlCTlCO OOtOCOCDtO ^Cl^CDSI 00 4*» CO SJ 4*» L»»ootoco cncococosi 2SSS оюелчо -4 CO CO CO CD ОСЛ #*O ~#>.G> co to со со со со oo СО-J CD^^-CDCO co45».cococo ^couitoqo © oooo toe . - - - cooosioi- loooo©© >¦ U\ CD tO S| CO OO SI СЛ SJ >SltOtOCO CO©CO45».CD -4 CO© ОО^Л 4^ CD OO CO CO >—CO tO CD CD © CO© Ю 4 H-iyiCD ОС СлЭ СЛ CO CO •<! CO 4^ ©^J СЛ 4^ •—-J CO "<I CO COCO — CO © CO © 4^ сл со со oo со со сл to si -4 4s» CO tO CO tO SI 4*> <•— CD CO CO 4^СЛ © -Si ) CO Э tO COCO 4 ;>CD >— —* tO ЭСЛ © CO © СЛ -<ICD 4*- 00 © O СЛ —• — CD -^J © 4^ СЛ-<1 -vj 4*. J 4CD CD l -vl -<1 CO 00 •— 00CDCO©tO H~* tO СЭ •"* 4s 4*.tO ©4*С ОСЛ 45» 4^ ^J i— -4 >— CO -О СЛ 4s» CO 4* CO СЛ 00 to -vj CO CD tO -vl 4s» CO сл toco со — CDCDCO©00 4 ^ CO — 4 00 СЛ СЛ СЛ OO oo — to сл со 4^ CD 4*- tO •<! -^ 4>J4 ) Oo 4^ 5 СЛ 00 © tO <! ICOtOCD CDCO-4>~vJ iCD^OCD © 4^. »—'»— DCDtOCD »—СОСЛСОО »—CO —CO tO 00 tO --J © CO 4». >—©<—© > >— 4&. CO ©4>- © CO * >—SI © CD CO CO CO >— 4* CD СЛ CD 4*. -q >—CDCD SI 4*. -«4 CO CO CO CD СЛ •— O0 СЛСО SJ CO 4^ ©CO CD •— CD CD SI CO SJ CO со сл to si со SJ »—« S| CO CD © 4*. tO tO © SI СЛ CO >— CO SI SI 4* © CO СЛ 4* СЛ CD CO CO SI СЛ © 00 © CD SI CO 00 СЛ © CO tO 4s» ¦—* tO CD СЛ CD CO CD •— SI CO CDCntOSlOO CO4©SlCn S| SI 4*» tO CO 00CD©00>— СЛ СЛ OO CD CD ^Э_-Ю>—iO CHSlCOCDtO i4^S|tO SlCO©tO© 4> 4*. 4»» CO CD OO4s»CDCn4s» CD 4s» •—' © 45»» COtO©OOCD gCOSJtOSJ CD4s»©CO^— SJ C5 00 CO *~"' CO 4s» O^ СЛ »—©tosico ootocn©>— CDCOtOCOSl CH©tOtO00 00 Sj SI CO 00 CO CO 4*. tO © ©СЛСЛ tO 4* h-4*. SI 00 SI CD CO i— © 4>> S) «—CO tOCn SI СЛ »— СЛ 00 CD СЛ 00 4^. SI сл © to to oo SI CO •—* © CO bOS] СЛ CO © si ©со © en si sj © >— сл tO CD CO 4s». СЛ CO CO CD SI CD 4*> tO CO CO 4=». tocn •— со и- СЛ — СЛ h-CO OO 4^ CO CO 00 Sj 4^ CO tO © ©CO 00 »— CO CO S] SI 4»-CO со © © сл © О •— 4>> CO Ю COCO h—-^ CO СЛ — CO OOCD 00 CD CD •— CD tOCO CD СЛ tO CD © SI CD © •— *— CO © •— О 4». •— tO SI CO © 4». CD *>J •— 4^ CO СЛ CO CD 00 >—4s». CO CDOOtOOOSl CDlOCOCDtO if**- ?j^ 00 CD ЬО >¦"* >•** CO СЛ 00 4^ CO СЛ 43» CD СЛ 4s» OO 4^ CD •SICDCOCnCO CDCO4»»©00 CD 4»» 00 CO CO СЛ CO SJ CD CD coco ©со si СЛ © S| CO © Si 4*. CO CD СЛ tOCO SI ©CD 45» tO 00 00 CO 00 45»» CO h—si to со сл si sj &?2? SI 4* CD i— © SJ Si 4 tO CD SJ SJ 4*. tO CD _ __ .. СЛ SI S| OO СЛ CO45»-©COCO СОСОСО-Й-СЛ 8gg§§ *—' SJ tO >— 45». CO SI СЛ © © OOW4 42». о сл to © © CD tO СЛ 00 CD CO СЛ SI tO CD 4* CO 4* СЛ © >— to oo со со со со >— со 00 tO tf* ©CO СЛ tO tocn 00 sj
Таблица 11 feedback — обратная связь). После нескольких подобных операций образуется общее мнение, которое может качественно превосходить каждое отдельное мнение (метод Делфи; см. [Helmer, 1967], [Graul, Franke, 1970], [Martino, 1970]). • 1.3.3. ЧАСТНОЕ РАСПРЕДЕЛЕНИЕ Статистический материал состоит обычно из измеряемых или наблюдаемых значений непрерывного (измеримого) признака (вес, возраст) или дискретного (счетного) признака (число детей). К этим количественным признакам добавляются альтернативные* признаки (пол, наличие или отсутствие признака), определения (семейное положение), а также качественные признаки (специальность). О ранговых признаках (маленький, средний, большой) мы будем говорить позже. Если имеется много результатов, то их целесообразно представить в табличной или графической форме. Например, приведем распределение 200 новорожденных по их росту (диапазон 40—61 см), разбитых на 7 классов (согласно приближенному правилу Штюргеса [Stur- ges, 1926] число классов можно выбирать по формуле k « 1 + +3,32-lg я,т.е. 1+3,32-lg200= = 1 + 3,32 • 2,30 = 8,6; здесь k можно принять равным и 8, и 9). Здесь верхняя граница класса к классу не относится, например ребенок, имеющий рост 5?_см, относится к классу 52—55 см. Класс в интервале «от а до Ъ (исключая Ь)» записывается в виде а ^ х < Ь (ср. табл. 1, с. 12). Сбор данных Здесь, видимо, не следует подробно останавливаться на получении первичного статистического материала посредством анкет, интервью, наблюдений или активных экспериментов. Следует только заметить, что при опросе, в противоположность наблюдениям и экспериментам, вольно (или невольно) ошибочный ответ едва ли можно исключить. Наш материал — рост новорожденных — имеется в любом родильном доме. Поскольку главной целью книги является изложение статистических методов, то имеет смысл говорить о вторичном статистическом материале, игнорируя его получение. Статистический материал может быть подготовлен тремя способами. При первом способе каждый измеренный ребенок отмечается чер- Класс 40—43 43-46 46—49 49—52 52—55 55—58 58—61 И т о г о Частота абсолютная 2 7 40 87 58 5 1 200 относительная, % 1,00 3,50 20,00 43,50 29,00 2,50 0,50 100,00 * В советской литературе эти признаки называются обычно качественными, или дихотомическими, факторами. — Прим. пер. 60
точкой в соответствующей графе ведомости. Если число черточек больше четырех, то их объединяют в группы по 5 (для облегчения счета). При втором способе можно использовать миллиметровку или бумагу в клеточку с нанесенным горизонтальным масштабом; каждый новый элемент списка отмечается точкой в соответствующем месте диаграммы. После нанесения всех точек на диаграмму можно границы классов отметить вертикальными линиями; при этом точки, лежащие на границах, принадлежат последующему классу. Третий способ предполагает, что каждый случай отмечается в картотеке, так что карточки уже разложены по классам, а классы образуются их соответствующими пачками. В противоположность первому способу третий (картотека) не предусматривает возможности контроля, проверки. Преимущество картотеки — возможность дальнейшего распределения по классам, например на мальчиков и девочек или по возрасту матерей. Нахождением, получением, фиксированием, обработкой и последующим распределением данных — сбором и обработкой информации — занимается документалистика. При этом существенно фиксировать значимую, ценную информацию (данные, документы, литература и т. д.), имея в виду возможность ее дальнейшей научной обработки. Если принять за исходную точку постановку задачи, то в ряду: постановка задачи -> получение данных -> обработка данных центральное место занимает получение данных, которое от математико-стати- стического планирования эксперимента приводит к анализу и интерпретации данных. Вернемся к данным о новорожденных. В табл. 11 в двух правых столбцах стоят абсолютное число случаев, попадающих в данный класс, и относительная доля этих случаев — относительная частота. Полигон частот^ блок-диаграмма, или гистограмма, представлена на рис. 4. При этом значения относительной частоты соответствуют площадям прямоугольников, построенных на классах. Если мы соединим середины классов ломаной линией, то получим распределение, которое тем ближе к истинному распределению, чем уже классы. Если классы достаточно узкие, то относительную частоту можно характеризовать площадью под кривой распределения. Можно утверждать обратное: кривая, целиком находящаяся в положительной области, площадь под которой равна единице, представляет собой кривую некоторого распределения. Кривая распределения называется также кривой плотности вероятности. S> 40 - I I 30 - 20 - I Ю - 1 _ I 1 1 1 1 / N \ \ \ \ \ i \ \ \ 43 46 49 52 55 Величина (см) 58 61 Рис. 4. Распределение частот табл. 11. 61
1аблица 12 Рост ниже, см 43 46 49 52 55 58 61 Накопленная частота абсолютная 2 9 49 136 194 199 200 относительная, % 1,00 4,50 24,50 68,00 97,00 99,50 100,00 Во^многих случаях эта кривая имеет колоколообразный вид, вид кривой нормального распределения. Если интересно узнать число новорожденных, рост которых меньше 49 см, то из таблицы получим 2 + 7 + 40 = 49 случаев из 200, или 1,00% + 3,50% + + 20% =24,50%. Если мы проведем этот расчет для всех классов, то получим итоговую табл. 12. Суммируемая подобным образом частота образует так называемую кривую кумулятивной частоты; если мы соответствующие значения роста и частоты отложим на координатной сетке, то получим ломаную линию, которая при уменьшении (сужении) классов хорошо аппроксимируется монотонно возрастающей S-образной кривой (рис. 5). Кривая накопленной частоты позволяет определить, как много новорожденных имеют рост меньше х см, или какой процент элементов в множестве меньше, чем х. Кривые удобно сравнивать, отмечая на координатной сетке, где они стремятся к прямой. Кривую накопленной частоты можно изменением масштаба по оси ординат превратить в прямую. Через 50%-ную точку S-образной кривой проводится выравнивающая прямая; далее некоторые процентные точки S-образной кривой вертикально проецируются на эту прямую и затем горизонтально — на новую ординатную сетку. Если кол околообразная кривая, а вместе с ней и S-образная кривая симметричны, то все точки E0±р)% симметричны относительно 50%-ной точки прямой (см. рис. 6, ср. также рис. 15). Рис. 5. 40 43 46 69 52 55 58 61 Величина (см) Кривая суммарной частоты Рис. 6. Спрямление кривой суммар- (в процентах). ной частоты. 62
0 1.3.4. НОРМАЛЬНАЯ КРИВАЯ И НОРМАЛЬНОЕ РАСПРЕДЕЛЕНИЕ Величины, которые по своей природе могут принимать только целочисленные значения, как, например, число детей или количество выпущенных изделий, образуют случайные процессы с дискретным распределением частот, т. е. соответствующие стохастические переменные могут принимать только целочисленные значения. В дальнейшем мы будем рассматривать глабным образом непрерывные случайные переменные, основанные, как правило, на измерительных процессах и, по крайней мере внутри заданных интервалов, могущие принимать любое значение. Примерами таких переменных" могут служить вес человека, его рост, возраст. Чисто дискретные величины, например -2 0 2 Рис. 7. Колоколообразные кривые. доход, могут рассматриваться как непрерывные и, наоборот, непрерыв ные величины могут объединяться в группы, классы и затем рассматри ваться при статистической обработке как дискретные величины. Если учесть, что каждое измерение принципиально представляет собой перенумерацию*, а каждое измерение лежит внутри интервала (или на его границе), определяемого точностью измерений, то «несгруп- пированные данные» суть данные, которые, по существу, группируются во время самих измерений. Чем грубее измерительный процесс, тем больше проявляются эти групповые эффекты. Собственно «сгруппированные данные» — это дважды классифицируемые данные: один раз при измерении и второй — при обработке. Классификацию, которая происходит при самих измерениях, мы не будем, как правило, учитывать. Случайных переменных, которые в строгом смысле могут принимать любое значение, поэтому не существует, и такое их рассмотрение является некоторой идеализацией. Если на основании наблюдений некоторого непрерывного признака строится распределение частот, то обычно оно представляет собой симметричную кол околообразную (нормальную) кривую. Особенно часто подобную форму имеют результаты повторных одинаковых измерений, например, длины спички или объема головы ребенка. * За номера можно принять результаты измерений. — Прим. пер. 63
Типичную нормальную кривую дает графическое представление уравнения у = е-х\ Общий вид уравнения нормальной кривой определяется следующим выражением. у==ае-Ьх2 A.23) (при а, Ъ > 0). На рис. 7 представлены две кривые при а = Ь = 1 и при а == 5 и ft = 1/3. Увеличение а вызывает увеличение t/, крива я пропорционально повышается; уменьшение Ъ приводит к растяжению, уплощению кривой. Многие плотности распределения (распределения частот) можно хорошо аппроксимировать кривой подобного вида при рационально выбранных значениях an b. Распределение случайных ошибок измерения при многократных измерениях (п—велико) физических величин имеет практически точно симметричную нормальную кривую: четко выраженный максимум, по обе стороны от которого кривая падает; очень маленькие и очень'большие ошибки весьма редки! Это распределение называется законом ошибок, или нормальным распределением. Прежде чем перейти к его подробному изучению, следует коротко остановиться на его всеобщем значении. Кетле A796—1874) обнаружил, что рост солдат-ровесников подчиняется нормальному распределению. По его мнению, причиной такого распределения являются ошибки, которые делает природа при воспроизведении среднего идеального человека. Школа Кетле, которая в законе ошибок Муавра A667—1754), Лапласа A749—1827) и Гаусса A777—1855) увидела закон природы, говорила также о «среднем человеке» с его «средней "наклонностью к самоубийству», «средней наклонностью к преступлению» и многом тому подобном. В то время как число «лучей» в плавниках камбалы распределено практически нормально, в окружающем нас мире встречается множество распределений, которое лишь с большой натяжкой можно описать нормальным распределением Муавра. Он его открыл и указал на его особое значение [Freudental, Steiner, 1966]. Особое значение распределения Муавра состоит в том, что сумма многих независимых, произвольно распределенных случайных переменных приближенно распределена по нормальному закону, причем тем ближе, чем больше членов в этой сумме (центральная предельная теорема: приводятся качественные высказывания о скорости сходимости). Эта теорема служит основой того, что очень многие выборочные распределения при достаточном объеме выборки хорошо аппроксимируются нормальным распределением и благодаря этому для соответствующих критериев можно ограничиться построением таблиц только для нормального распределения. Нормальное распределение обладает к тому же рядом весьма благоприятных математико-статистических свойств, что позволяет его рассматривать как краеугольный камень математической статистики. Его основополагающее значение зиждется также настом, что случайные переменные, которые представляют собой наложение многих раз- личных^более или менее независимых причин, могут рассматриваться 64
как суммы многих случайных переменных! Это можно легко проверить экспериментально: достаточно насыпать сухой песок через воронку между двумя параллельными вертикально поставленными стеклянными пластинками, полученная картина будет близка к нормальному распределению. Справедливость распределения Муавра следует ожидать в тех случаях, когда испытываемые переменные подвержены влиянию многих независимых примерно в равной степени влияющих факторов, когда не производится предварительный отбор измерений и когда число измерений или наблюдений велико. х—н Рис. 8. Нормальная кривая. Рассмотрим это распределение подробнее (рис. 8). Ордината у, которая определяет высоту кривой для каждой точки оси х, представ - вляет собой плотность вероятности некоторого значения переменной х. Максимум плотности вероятности приходится на среднее значение х. Плотность вероятности (W) нормального распределения определяется следующим выражением: (—оо • = 7=- -е •оо,а>0), A.24) Здесь х — абсцисса, у — соответствующая ей ордината (у есть функция от х\ у = / (*)), 0 — стандартное отклонение распределения, \i — среднее значение (математическое ожидание) распределения; я и е — математические постоянные, примерно равные: я = 3,141593 и е = = 2,718282. Формула содержит два параметра \х и а, постоянные для данной случайной переменной х. Как видно из формулы A.24), нормальное распределение полностью определяется параметрами [х и а. Среднее \i определяет положение распределения относительно оси х; стандартное отклонение определяет форму кривой: чем больше а, тем кривая более пологая (тем шире кривая и тем ниже ее максимум). Другие свойства нормального распределения: 1. Кривая симметрична относительно прямой х == ^, т. е. симметрична относительно среднего значения. Значения х' = \i — аи х — 3 Зак. 93 0 65
= |i + а имеют равную плотность и, естественно, одну и ту же ординату у. 2. Максимум ординаты кривой равен утах = 1/(а • ^2^), для а = 1 он равен 0,398942 ~ 0,4. Для очень больших х (х ->• оо) и очень малых х(х-+-—оо) у стремится к нулю; ось х является асимптотой. Очень большие отклонения от среднего имеют очень малую вероятность, что позволяет сказать: «они почти невозможны». Точна перегиба/ кривой Точна перегида _\/ кривой jU-36 M'2b ju-6 ju ji'+b ju+2b M+3b ~Z -3 -2 -1 0 1 2 3 Рис. 9. Нормальное распределение; стандартное отклонение и точки перегиба. Соотноше- X — U ние между х и z: z= , где z — стандартная нормальная переменная. 3. Стандартное отклонение определяется абсциссой точки перегиба (рис. 9). Ордината точки перегиба равна примерно 0,6 • угаах. Грубо говоря, 2/3 всех наблюдений лежит между — а и + а (|л ± а). 0 г Рис. 10. Стандартная нормальная кривая. 4. При больших объемах выборки примерно 90% всех наблюдений лежит между — 1,645а и + 1,645а. Границы —0,675а и + 0,675а называются вероятными отклонениями-, в этом интервале лежит 50% всех наблюдений. Так как у» и а в формуле для плотности нормального распределения могут принимать любые значения, возможно бесконечно много нормально распределенных совокупностей с различными распределениями. Если в A.24) мы примем * — и* = г, то получим единственное, стандартное нормальное распределение с нулевым средним и единичным стандартным отклонением. 66
Сокращенно нормальное распределение записывают в виде N (fi, a) или fN ([А,^а2), а стандартное нормальное распределение — N @, 1). Стандартное нормальное распределение — имеет у как функцию стандартной нормальной переменной z — определяется выражением y = /(z)=—jL-e 2 =0,3989-e 2 ~ 0,4-е 2 . A.25абв) Для каждого значения z по табл. 13 можно найти вероятность того, что случайная переменная Z примет значение, большее, чем z. Следует отметить два следующих важных обстоятельства: 1. Вероятность под всей кривой стандартного распределения равна единице: из этого следуют выражения для определения постоянных нормального распределения а = \lV2n и 6= 1/2 (ср. у = ae~bz2). 2. Нормальное распределение симметрично. Табл. 13^показывает «правостороннюю» вероятность того, что значение z будет больше, чем z. Например, значению z = 0,00 соответствует ^вероятность Р = 0,5, т. е. справа от среднего значения лежит половина площади под кривой; для z = 1,53 Р = 0,0630 = 6,3%, или справа от z = 1,53 лежит 6,3% общей площади под кривой. Табл. 13 дополняется табл. 14 (с. 69) и 43 (с. 204). Рис. 11. ^[асть площади (заштрихованная) справа от определенного значения z, равна А. Площадь, лежащая слева от z, равна A— Л), причем значение А определяется значением z согласно табл. 13. Рис. 12. Распределение площади под кривой нормального распределения. $999367,- При оценке результатов выборки часто используют следующие соотношения: а ± 1,96а, или z = dh 1,96 накрывают 95% всей площади; 1 X -1- 2,58а, ± 3,29а, ± 1СГ, ±2а, ±3а, или или или или или z= ± Z== ± z= ± z = ± Z = Ч- 2,58 3,29 1 2 3 » » » » » 99% 99,9% 68,27% 95,45% 99,73% » » » » » » » » » » 3* 67
Таблица 13. 2-критерий. Площадь под кривой стандартного нормального распределения от г до оо для значения г в интервале 0^2^:3,7, т. е. вероятность того, что переменная Z примет значение ^г (символически Р (Z^z). 00 01 02 03 05 06 07 03 0Э 0,5000 0,4602 0,4207 0,3821 0,3446 0,3085 0,2743 0,2420 0,2119 0,1841 0,1587 0,1357 0,1151 0,0968 0,0808 0,0668 0,0548 0,0446 0,0359 0,0287 0,0228 0,0179 0,0139 0,0107 0,0082 0,0062 0,0047 0,0035 0,0026 0,0019 0,0013 0,4960 0,4562 0,4168 0,3783 0,3409 0,3050 0,2709 0,2389 0,2090 0,1814 0,1562 0,1335 0,1131 0,0951 0,0793 0,0655 0,0537 0,0436 0,0351 0,0281 0,0222 0,0174 0,0136 0,0104 0,0080 0,0060 0,0045 0,0034 0,0025 0,0018 0,0013 0,4920 0,4522 0,4129 0,3745 0,3372 0,3015 0,2676 0,2358 0,2061 0,1788 0,1539 0,1314 0,1112 0,0934 0,0778 0,0643 0,0526 0,0427 0,0344 0,0274 0,0217 0,0170 0,0132 0,0102 0,0078 0,0059 0,0044 0,0033 0,0024 0,0018 0,0013 0,4880 0,4483 0,4090 0,3707 0,3336 0,2981 0,2643 0,2327 0,2033 0,1762 0,1515 0,1292 0,1093 0,0918 0,0764 0,0630 0,0516 0,0418 0,0336 0,0268 0,0212 0,0166 0,0129 0,0099 0,0075 0,0057 0,0043 0,0032 0,0023 0,0017 0,0012 0,4840 0,4443 0,4052 0,3669 0,3300 0,2946 0,2611 0,2296 0,2005 0,1736 0,1492 0,1271 0,1075 0,0901 0,0749 0,0618 0,0505 0,0409 0,0329 0,0262 0,0207 0,0162 0,0125 0,0096 0,0073 0,0055 0,0041 0,0031 0,0023 0,0016 0,0012 0,4801 0,4404 0,4013 0,3632 0,3264 0,2912 0,2578 0,2266 0,1977 0,1711 0,1469 0,1251 0,1056 0,0885 0,0735 0,0606 0,0495 0,0401 0,0322 0,0256 0,0202 0,0158 0,0122 0,0094 0,0071 0,0054 0,0040 0,0030 0,0022 0,0016 0,0011 0,4761 0,4364 0,3974 0,3594 0,3228 0,2877 0,2546 0,2236 0,1949 0,1685 0,1446 0,1230 0,1038 0,0869 0,0721 0,0594 0,0485 0,0392 0,0314 0,0250 0,0197 0,0154 0,0119 0,0091 0,0069 0,0052 0,0039 0,0029 0,0021 0,0015 0,0011 0,4721 0,4325 0,3936 0,3557 0,3192 0,2843 0,2514 0,2206 0,1922 0,1660 0,1423 0,1210 0,1020 0,0853 0,0708 0,0582 0,0475 0,0384 0,0307 0,0244 0,0192 0,0150 0,0116 0,0089 0,0068 0,0051 0,0038 0,0028 0,0021 0,0015 0,0011 0,4681 0,4286 0,3897 0,4641 0,4247 0,3859 0,3520 0,3483 0,3156 0,3121 0,2810 0,2483 0,2177 0,1894 0,1635 0,1401 0,1190 0,1003 0,0838 0,0694 0,0571 0,0465 0,0375 0,0301 0,0239 0,0188 0,0146 0,0113 0,0087 0,0066 0,0049 0,0037 0,0027 0,0020 0,0014 0,0010 0,2776 0,2451 0,2148 0,1867 0,1611 0,1379 0,1170 0,0985 0,0823 0,0681 0,0559 0,0455 0,0367 0,0294 0,0233 0,0183 0,0143 0,0110 0,0084 0,0064 0,0048 0,0036 0,0026 0,0019 0,0014 0,СОЮ 0,0010 3,2 0,0007 3,3 0,0005 3,4 0,0003 3,5 и 3,6 0,0002 3,7 0,0001 Источник: Fisher R. A. and Yates F. Statistical Tables for Biological, Agricultural and Medical Research, Oliver and Boyd., Edinburgh, p. 45. 68
Отклонения, большего чем <т, от среднего значения следует ожидать примерно в одном случае из трех опытов; отклонения, большего чем 2а, — одного в 22 опытах и отклонения, большего чем За, — при- Таблица 14. Границы стандартного нормального распределения г 0,6745 0,8416 1,2816 1,6449 1,9600 2,3263 2,5758 2,8070 3,0902 3,2905 двусторон. 0,5 0,4 0,2 0,1 0,05 0,02 0,01 0,005 0,002 0,001 р односторон. 0,25 0,2 0,1 0,05 0,025 0,01 0,005 0,0025 0,001 5-Ю-4 г 3,4810 3,7190 3,8906 4,2649 4,4172 4,7534 4,8916 5,3267 5,7307 6,Ю94 двусторон. 5-Ю-4 2-Ю-4 ыо-4 2-Ю-5 ыо-5 2-10-» ыо-6 ЫО-7 ыо-8 ыо-9 р односторон. 25.10-5 ыо-4 5-Ю-5 ыо-5 5. Ю-6 ыо-* 5-10-7 5-Ю-8 5-Ю-9 5-Ю-10 мерно в одном случае из 370 опытов, иначе говоря: вероятность того, что х будет отличаться по абсолютной величине больше чем в 3 раза от среднего значения, существенно меньше чем 0,01. Р (| х — (г | > За) = 0,0027. A.26) Последнее соотношение для нормального распределения часто называют правилом трех сигм: вероятность того, что разность между случайной переменной, распределенной примерно по нормальному закону, и ее средним значением по абсолютной величине превосходит За, меньше чем 0,3%! Для произвольного распределения справедливо неравенство Бьенэ- мэ A853) и Чебышева A874): вероятность того, что разность между случайной переменной и ее средним значением по абсолютной величине больше чем За (в общем случае: > ?а), меньше чем 1/32 (в общем случае: <; 1/&2), т. е. меньше 0,11. P(|*-|i|>3o)<-i- = 0,llll (i.27a) у или в общем случае Р(\х— 4 4r при k" A.27) т. е. чтобы получить 5%-ный порог, необходимо принять 4,47а; тогда 1/4,472 примерно равно 0,05. Для симметричного распределения с одним максимумом справедливо строгое неравенство Гаусса A821) 4т A-28) и отсюда 9-9 -0,0494, A.28а)
т. е. вероятность отклонения, большего чем За, примерно равна 5%. Более подробно о неравенствах подобного рода можно прочесть в [Mallows, 19561 и [Savage, 1961]. • 1.3.5. ОТКЛОНЕНИЯ ОТ НОРМАЛЬНОГО РАСПРЕДЕЛЕНИЯ Некоторые признаки объектов, находящихся в одинаковых условиях, — продукция машины, особи одного вида — зачастую распределены по нормальному закону. Вместе с тем многие распределения, например, в химическом анализе и многих других областях сильно отличаются от нормального [Clancey, 1947]. При этом генеральная совокупность в противоположность нормальному распределению, как правило, конечна, состоит в большинстве случаев из дискретных значений и часто имеет асимметричное, многовершинное распределение частот. Отклонения от нормального распределения могут быть из-за неудачного выбора единицы измерения. Площадь поверхности и вес организмов обычно не подчиняются нормальному распределению, поскольку речь ? идет о квадратах и кубах нормально распределенных переменных. В подобных случаях рекомендуется преобразование переменных. Для площадей, объемов в области малых частот рекомендуется преобразование типа квадратного и кубического корня; для распределения, ограниченного слева нулем, часто применяется логарифмическое преобразование переменных. Процентные закономерности нормализуются преобразованием поворота осей. Подробнее об этом можно посмотреть на с. 104—107, 247—248, 466—467. Если применяемую шкалу нельзя произвольно менять, то следует внимательнее рассмотреть технику отбора. Когда выборка содержит только самые большие экземпляры, которым отдается в отборе вольное или невольное предпочтение, не следует ожидать нормального распределения. Подобное влияние оказывает неоднородность выборки, например, в отношении возраста или пола: получается больше чем один пик. , 4 Мы еще будем рассматривать некоторые способы проверки выборки на однородность, или, иначе говоря, контроля отклонения от нормального распределения (с. 84—86, 233—235, а также 256—258 и 297—299). Если обнаружится, что генеральная совокупность, в особенности на краях, имеет значительное отклонение от нормального распределения (Чарлз П. Уинзор указал на то, что многие эмпирические распределения только в средней части приближаются к нормальному распределению), то может оказаться целесообразным исключить из рассмотрения наименьшие и наибольшие наблюдения, или, иначе говоря, отбросить некоторые из экстремальных наблюдений на обоих концах распределения (? 5% всех значений). Это усечение (trimming, censoring) сильно уменьшает дисперсию, но улучшает оценку среднего значения [McLaughlin, Tukey, 1961], [Tukey, 1962], [Gebhardt, 1966]. Графические методы определения х, s и s2 для усеченного распределения даны Нельсоном [Nelson, 1967] (ср. также [Cohen, 1957/1961] и [Sarhan, Greenberg, 1962]). 70
ф 1.3.6. ХАРАКТЕРИСТИКИ РАСПРЕДЕЛЕНИЯ С ОДНИМ ПИКОМ (УНИМОДАЛЬНОГО) 1.3.6.1. Оценка параметров Статистики, такие, как, например, среднее значение х = -^ 2я, должны наилучшим образом удовлетворять следующим четырем условиям: 1. Они должны быть несмещенными (unbiased, verzerrungsfrei), т. е. при очень большом числе испытаний с одинаковыми выборками среднее значение оценок должно стремиться к истинному значению генеральной совокупности. Если этого нет, то оценка смещена. Это смещение (bias) может быть обусловлено ошибками измерения, юстировки, эталонирования, тарировки, протоколирования, счета и оценки или неслучайным характером выборки, или комбинацией этих ошибок и совсем независимо от объема выборки. Ошибки такого рода называются систематическими ошибками-, они всегда приводят или к завышению, или к занижению оценки. Значение этой ошибки может быть определено только после анализа процедуры получения рассматриваемой величины. Избежать ее можно только при тщательном планировании эксперимента или наблюдения. При наличии систематических ошибок нельзя судить об истинном значении величины — в отличие от случайных ошибок (ср. также с. 188—191, [Anderson, 1963] ,[Zarkovick, 1966], [Sza- meitat, Deininger, 1969]). 2. Они должны быть согласованными или состоятельными, т. е. с ростом п они должны стремиться к соответствующему параметру генеральной совокупности j 3. Они должны быть" эффективными (efficient), т. е. для выборок равного объема они должны иметь минимальное рассеяние и дисперсию. Представьте себе, что из генеральной совокупности взято бесконечно много выборок объема п и для некоторой статистики, удовлетворяющей условиям 1 и 2, рассчитывается дисперсия. Тогда условие 3 означает, что та статистика удовлетворяет ему, дисперсия которой относительно среднего значения или математического ожидания минимальна. Как правило, стандартное отклонение оценки по абсолютной величине и отнесенное к математическому ожиданию уменьшается при увеличении объема выборки. 4. Они должны быть достаточными, т. е. не должна возникать необходимость в дополнительной информации об оцениваемом параметре. Это условие означает, что статистика должна содержать всю основную возможную информацию. Подобно смещению рассеяние оценки может быть уменьшено соответствующим планированием эксперимента. Названия «состоятельная» (consistent), «эффективная» (efficient) и «достаточная» (sufficient) введены Р. А. Фишером A925). Для оценивания параметров по выборочным данным разработаны многочисленные методы. Особое значение имеет метод максимального правдоподобия (Р. А. Фишер); это универсальный метод оптимального оценивания неизвестных параметров, применимый в случаях, когда вид функции распределения известен; оценки неизвестных параметров 71
в этом случае равны значениям, при которых полученная выборка имеет максимальную вероятность появления, т. е. в качестве оценок отыскиваются значения, максимизирующие функцию максимального правдоподобия для параметров, в предположении, что эти параметры существуют. Этот метод построения точечных оценок параметров находится в тесной связи с методом наименьших квадратов. Примечание. Закон больших чисел Бернулли Пусть событие имеет вероятность я, а относительная частота появления Е в п независимых случайных испытаниях равна рп. Для любого сколь угодно малого наперед заданного положительного числа 8 справедливо выражение • Р(\рп — я|е)-М для п^оо, A.29) т. е. вероятность того, что рп отличается меньше чем на 8 от теоретического значения я, стремится (сходится) при увеличении п к единице. Можно также сказать, что с любой как угодно близкой к единице вероятностью при достаточно большом числе п относительная частота рп как угодно мало отличается от параметра я. Следствием этого закона больших чисел является, например, сходимость по вероятности выборочного среднего к среднему значению генеральной совокупности. В конце раздела 1.3.4 мы привели неравенство для случайной переменной* справедливое также и для среднего значения и позволяющее заменить его при определенных условиях на х при некотором конечном я. Функции выборки, такие, как среднее значение и дисперсия, для которых справедливо выражение A.29), называют состоятельными или сходящимися по вероятности. Выражение A.29) называют иногда слабой формой закона больших чисел. Соответствующий сильный закон больших чисел гласит: при бесконечном п с вероятностью 1 будет наблюдаться только конечное число случаев,^когда рп не будет стремиться к я (ср., например, [Weinberg, 1968]). На законе больших чисел основаны A) возможность как угодно точно оценивать параметр по выборке и B) метод Монте-Карло <ср. с. 224—227). 1.3.6.2. Арифметическое среднее и стандартное отклонение Среднее значение и стандартное отклонение суть характеристические значения симметричной колоколообразной кривой, или гауссовой кривой, или нормального распределения. Они определяют положение среднего значения ряда измерений и удаления, колебания, рассеяние, или дисперсию, отдельных значений от среднего. Приведенное выше неравенство Чебышева A.27) показывает, что стандартное отклонение — независимо от нормальности распределения — может служить в качестве общей меры рассеяния. Определения _ Арифметическое среднее х есть сумма всех наблюдений, поделенная на число этих наблюдений: 72
n или - _ _2*_ n A.30) Стандартное отклонение практически равно корню квадратному из среднего значения квадратов отклонений: Выражение «практически» при этом означает, что под корнем стоит делителем не п, как это должно быть при вычислении среднего, а число, на 1 меньшее. Квадрат стандартного отклонения называется дисперсией S2= 2(*-*Г- 9 A32) п—1 Если среднее значение (fx) генеральной совокупности известно, то используют величину \>0= *<*-!*)' A.33) п в качестве оценки дисперсии а2. 1.3.6.3. Оценивание среднего значения и стандартного отклонения при малом объеме выборки Когда данные содержат мало знаков или при наличии вычислитель* ной машины среднее значение рассчитывается по формуле A.30), стандартное отклонение (положительное значение корня Ys2) по A.31а) или по A.316): г п—1 f s=\/ -5-; A.31а) г п1 Пример. Рассчитайте 1с и s по значениям 27, 22, 24 и 26 (п = 4). - 2л _ 99 _247е. х-—-— -24,75, = I/ 5 f^ n—1 / / s= I/ 5_= I/ i_ = /4,917 = 2,22 f^ n1 f 4—1 73
или s = a:*- рц« = ,/.2465 - 99* = утау= 2> л(л-1) К 4D-1) Для сравнения двух средних значений по критерию Стьюдента (^-критерий, см. с. 245—246 и 248—250) —целесообразно вместо стандартного отклонения вычислять дисперсию, так как она необходима для проверки равенства дисперсий (с. 241—245) и для ^-критерия. Для вычисления дисперсии в формулах A.31а, б) используется подкоренное выражение, например: s = 1/4,917 или s2 = 4,917, т.е. ^ ( Примечания 1. Дисперсия при п парных измерениях рассчитывается по формуле 2. При выборке большого объема можно просто вычислить стандартное отклонение как одну третью разности между средними значениями наибольших и наименьших шестых частей ряда наблюдения [Prescott, 1968]. 3. В то время как s2 является несмещенной оценкой для а2, для а оценка s будет смещенной. Это смещение, как правило, невелико. Для нормально распределенной генеральной совокупности можно получить несмещенную оценку а с применением поправочных коэффициентов (например, [Bolch, 1968]). Для неслишком малой выборки (т] ? 10) этот множитель хорошо аппроксимируется выражением 1 Н ¦ — и близок к единице (например, 1,00866 для п = 30). L Цп — 1)J Подробнее об этом сказано у [Brugger, 1969], [Stephenson, 1970]. 4. Для ~х справедливы выражения 2 (** — *) = 0 и 2 (xt — 1сJ < < 2 (xt — яJ для любого х\ для медианы^справедливо выражение 21 х$ —1с\ < < 2 \xi — х\ для любого Ху т. е. суммы [JS (xt — Icf и 2 \xi — И \ суть / i i некоторые минимумы! При многократно повторяющихся отдельных значениях для упрощения расчетов предварительно выбирается среднее значение d с учетом того, чтобы разность х —*d была возможно меньшей или была везде положительной. Тогда справедливы выражения: ¦-V- A.34) A.35) 74
Пример Таблица 15 X 11,27 11,36 11,09 11,16 11,47 х-11,26 0,01 0,10 —0,17 —0,10 0,21 0,05 (л;—11,26J 0,0001 0,0100 0,0289 0,0100 0,0441 0,0931 Согласно A.34) и A.35): ^Zf?L:=llj26 + -^ = ll>270; 5—1 Умножением всех значений х на 10 в подходящей степени в числовых данных устраняется запятая: в нашем случае это соответствует умножению на 100, т. е. х* (х со звездочкой) = 100 х и для значений х* получаем х* = 1127,0 и s* = 1,52. Отсюда обратным преобразованием приходим снова к значениям * = x*/100= 11,27 и s = s*/100 =0,152. От больших чисел при расчетах можно освободиться, если сделать еще один шаг. При кодировании исходные значения х преобразуются в возможно более простые числа х* Еыбором постоянных kx и k2> причем с помощью &! осуществляется изменение масштаба, а с помощью k2 изменяется нулевая точка отсчета (в совокупности — линейное преобразование): х = fa* + k2 A.36a) или По рассчитанным л;* и s* или s*2 тотчас получаются требуемые значения: <;2 — ?>? с*2 /1 QQ\ Рекомендуем читателю просчитать предыдущий пример заново, используя преобразование х* - 100 (х— 11,26), т. е. К = 0,01, k2 = 11,26. 76
4.3.6.4. Оценивание среднего значения и стандартного отклонения по выборкам большого объема: отдельные значения сгруппированы в классы Сумма 10 чисел 2, 2, 2, 2; 3; 4, 4, 4, 4,4 = 31 может быть записана также в следующем виде D • 2) + A • 3) + E • 4), среднее значение этого ряда рассчитывается тогда по формуле 4+1 + 5 На этом примере мы видим выборку, отдельные значения в которой сгруппированы в три класса. Частоты 4, 1 и 5 сообщают значениям 2, 3 и 4 различный вес. Значение 3,1 может рассматриваться как взвешенное среднее арифметическое. К этому мы вернемся позднее (см. с. 79). Чтобы можно было лучше рассмотреть большой числовой материал и проще определить такие характеристики, как среднее значение и стандартное отклонение, часто используется объединение упорядоченных значений в классы. При этом целесообразно использовать классы равной ширины. Кроме того, следует в качестве середин классов выбрать возможно более простые числа с небольшим числом значащих цифр. Число классов следует брать, как правило, от 6 при 25—30 наблюдениях до '25 при^ЮООО значений и больше (см. с. 60 и 90). Классы k характеризуются соответствующими частотами /lf /2, ..., fk (п = 2 ft = /=i s= Б/). Выбранное предварительное значение среднего d обычно попадает в самый большой класс. I. Способ с умножением Отдельные классы затем нумеруются: значению d присваивается номер z = 0, возрастающие классы нумеруются 1, 2, ..., уменьшающиеся — 1, — 2f ... Тогда: x = d + — I>fz\ A.39) п s = b]/ "" ~^'г> '" ; A.40) -n(/i-l) Г где d — принятое среднее значение; Ь — ширина класса; п — число значений; / — частота в классе, число значений в классе; z — отклонения [г = ^- 76
Таблица 16 X 13 17 21 d = 25 29 33 37 2 / 1 4 6 7 5 5 2 30 z з -2 — 1 0 1 2 3 и —3 —8 -6 0 5 10 6 4 fzi ¦ 9 16 6 0 5 20 18 74 x = d + — 2/z = 25 + — -4 = 25,53; л 30 s = t = 4 74 _ 42/30 л—1 J ' V \ 31-1 Проверка — применяются тождества: 2/ (z + 1) = 2/2 + 2/ = 2/2 + /г; 2/ (г + IJ = 2/ (z2 + 2г + 1); 2 f(z + IJ = 2/z2 + 22/2 + 2/; 2/ B + IJ = 2/22 + 22/2 + n, и записываются соответствующие распределения. Таблица 17 )=6,37. A.41) A.42) 2+1 2 — 1 0 1 2 3 4 л = 2/ = f И 4 6 7 5 5 2 = 30 /B+D ( 2 —4 0 7 10 15 8 S/(z+l)=34 f B+1J 4 4 0 7 20 45 32 2/(г+1J=112 Проверка для средних значений: 2/ (г + 1) = 34 (из табл. 17); 2/z + п = 4 + 30 = 34 (из табл. 16). 77
Проверка для стандартного отклонения: 2/B+ IJ = 112 (из табл. 17); 2/z2 + 22/2 + п = 74 + 2 • 4 + 30 = 112 (из табл. 16). II. Способ со сложением Это лучший способ для вычисления среднего значения и стандартного отклонения для очень большого ряда наблюдений. По отношению к предыдущему способу он имеет то преимущество, что на стадии расчетов производится только суммирование (табл. 18). Способ с суммированием состоит в том, что производится суммирование частот, начиная с верхнего и нижнего концов таблицы, по направлению к предполагаемому среднему d (графа 3). Затем полученные значения аналогично суммируются еще раз в 4-й графе. Суммарные значения выше и ниже d обозначаются через б3 и 62. Затем аналогичное суммирование проводится еще раз (см. графу 5). Соответствующие суммы обозначаются через гх и е2. Затем, "обозначая 6,-6! _ „ получаем: s = i л— 1 A.43) A.44) S2=i Л—1 где d — принятое среднее; b — ширина класса; п — число значений; 61э б2, elf е2 — специальные суммы, см. текст. Рассмотрим последний пример. Таблица 18 X 13 17 21 d = 25 29 33 37 л=30 f 1 4 6 7 5 5 2 Si 1 5 И 12 7 2 s2 1 6 17 = б! 21 =6а 9 2 s3 1 7 24 = 8i 32 = е2 11 2 * 87
с = Az^L = Л=П =0,133; п 30 .0,133 =25,33; л—1 !==4.j/. 2B4 + 32)—A7+21)—30-0,1332 30—1 s = 41 Стандартное отклонение, рассчитанное с применением группировки данных, обычно несколько больше, чем его значение, рассчитанное без группировки данных, а именно внутри небольшой области тем больше, чем больше ширина класса Ь\ поэтому рекомендуется ее выбирать не слишком большой (см. с. 96). По возможности должно выполняться неравенство b^s/2. A.45) В нашем примере это условие выполняется с запасом. Кроме того, Шеппард предлагает дисперсию, рассчитанную с применением группировки, корректировать вычитанием значения Ь2/12. Поправка Шеппарда: s*-b*/12. A.46) Эта поправка требуется только тогда, когда производится грубое распределение по классам при п > 1000, т. е. когда k<. 20. Для скорректированной дисперсии нельзя применять статистические критерии! 1.3.6.5. Взвешенное арифметическое среднее, взвешенное стандартное отклонение и арифметическое среднее с весами Если необходимо несколько рядов данных размера nlf n2, ..., nk со средними хг, х2, ..., хк и квадратами стандартных отклонений sf, s|, 7.7ysl объединить в один ряд объема п = пг + п2 + ... + nk, то взвешенное среднее полного ряда есть 7 +! ft A.47) п и взвешенное стандартное отклонение -+SS (*fc-D e A 48) 79
Пример п1 = 8,^=9, (Sl = 2)(sf=4; = 2), si = 4; -Y- 4(8-1)+1(Ю-1)+4F-1) , fi, — =1,65. Возводя в квадрат A.48), получаем 2_ A0—1L-4F—1) 24-3 ? Арифметическое среднее с весами: отдельные измерения неравной точности можно отметить различными весами wt (измерениям 1, 2, 3 соответственно приписать 0,1 или 0,01 и т. д. при 2до| = ^.^Взвешенное по важности среднее получают тогда по формуле Другим способом, более целесообразным, служит введение вспомогательной переменной а\ тогда при расчетах используется отклонение Пример г%=х% — а. xi 138, 137, 137, 2 2 9 8 Щ- w. 1 2 1 = 4 (a = 137,8) 0,4 0,1 0,0 ш 0 0 0 = 0, л ,4 ,2 ,0 6 х — а Zj # х = 137,8 0,6 : 137,95. A.49) 1.3.6.6. Коэффициент вариации Отношение стандартного отклонения к среднему значению называется коэффициентом вариации или изменчивости (coefficient of variation, seltener coefficient of variability) и обозначается V: V=~t хфО. A.50) X 80
Коэффициент вариации равен стандартному отклонению, когда среднее значение равно единице. Иными словами: коэффициент вариации есть относительная безразмерная мера рассеяния с единичным средним значением. Зачастую пользуются также стандартным отклонением в процентах от арифметического среднего: у = 4-100, хфО. A.50а) х При использовании коэффициента вариации следует обратить внимание на то, чтобы значения xt были положительными (что получается при употреблении шкалы с абсолютным нулем и постоянной шириной классов). В не слишком маленькой выборке из нормальной генеральной совокупности величина Vдолжна быть не больше 33%. Коэффициент вариации особенно пригоден для сравнения выборок из генеральных совокупностей одного типа. Пример При s = 4 и х = 20 согласно A.50) и A.50а) получаем У = — = 0,20=20%. 20 1.3.6.7. Примеры на нормальное распределение С помощью ординат нормального распределения из табл. 20 легко построить нормальную кривую. Для быстрого построения нормальной кривой могут быть использованы следующие значения: Таблица 19 Абсцисса Ордината 0 Углах ±0,5G 7 g "I/max ±1,0G 5 > g 'Утах ±2,0а 1 g 'Утах ±3,0а 1 80 *^max Абсцисса ±3,5сг соответствует ординате A/400) • */тах, кривая при этом практически сливается с осью х\ при максимальной ординате, например, в 40 см при г = ± 3,5, ордината будет равна 1 мм. Длина нормально распределенных предметов в среднем равна 80 см при стандартном отклонении 8 см. а. Какой процент предметов находится между 66 и 94 см? б. Между какими длинами располагаются в среднем 95% предметов? а. Область 80 ± 14 см может быть при заданном стандартном от- 14 клонении 8 см записана в виде 80 ± -g- or = 80 ± 1,75а. Табл. 13 для г ~ 1,75 дает вероятность, примерно равную 4% (Р = 0,041 ~ с* 0,04). Требуется определить процент значений между z = — 1,75 81
00 to сососососососососо CO 00 Vj O5 СЛ 4*~CO tO ^~ ]O NDJO JO tO W Ю NO Ю 5C04^C75COtO-<l4^CO tOtOCOCOCOCOCOCOCO 05 00 >— W СЛ Ci OO (?) C?) CJ)DbOWtOOO) со CO 00 CO о о о о о oo< ооооос ююсососососососо С7500СОСДСТ500СОСО С700СОСД СО ЧО ^ О -^44^»— tOCO О О < ooboo-^t >слсосо-^соосо в ооооо ^ С^5 С^ <^^ <"~*> <^> О^^ •'ЮСО 8 о о о—» llCOtOC о О J3 О О О О О О О "to to Ьо со Ьо ~оэ ^о "со со 0500OtO4^CT>"'' " 3S00 ююсососососососо Cn00Ot04^0i-J00C0 n00 о со со со 00 СО о со о о S и— СЛ I—к СО . _>СЛ I 5 >— СО tO 00 СО 00 С СО^4Ю400 4*.ОООСОСЛ05СОСО totocococococococo cnoooto^o^^ooco О JD О О О О О О О ооооооооо юю^слчослооо ооооооо 5СО^-*СЛСОСЛ»— СО CO4^00tO^JC7> оооооороо sfp©" • • * - • totocococococococo СО со 00 о со о 8 ооооооооо ооооооооо ооооооооо -> о о |—' •—' to to >оооооо > н- h— ^- tO СО СО Э >— СЛ СО 4*. >— 00 э а) ь— 4*. а> о ->j tototococococococo СЛ-ЧСОЮ4^СЛ-ЧООСО >—СЛООО"—ООСОСЛСО СлОСОСООсОСО^СО со СО 00 to
и z = + 1,75. Выше z = 1,75 лежит 4% и ниже z = — 1,75 также лежит 4% (см. рис. 13, с?! = — 1,75 и za = + 1,75); между этими двумя границами, т. е. между длинами 66 и 94 см, находится 100 — D + + 4) = 92% предметов. б. Для z = 1,96 получаем (см. с. 67): 95% всех предметов находятся в области 80 ± 1,968 см, т. е. между 64,32 см и 95,68 см. Пусть установлено, что некоторое эмпирическое распределение хорошо аппроксимируется нормальным распределением с х = 100 и s = 10. Нас интересуют доли от всей совокупности (в %), которые: а) превосходят л: = 115; б) лежат между х = 90 и х = 115; в) меньше 90 Рис. 13. Нормальное распределение: заштрихованные части площади лежат слева от Z\, (отрицательное значение) и справа от z2, (положительное значение). На рис. | ^?i | = | «2 i - Табл. 13 на с. 68 дает значение площади справа от z2 или, на основании симметрии кривой, также и слева от произвольного отрицательного значения 2i= —z2, причем входом в таблицу является значение | z2 |. Решение. Вначале преобразуем величину х по формуле z — х ~~ х s в стандартную форму (приведем к стандартным единицам). а) л: = 115, г = j^ = 1,5. По табл. 13 определяем, что искомая доля равна 0,0668, или ~ 7%. б) х = 90, г = —jq— = — 1,0, для х = 115 мы ранее получили z = 1,5. Искомая доля соответствует площади под нормальной кривой между z = — 1,0 и z = 1,5. Суммируем: (площадь между г = — 1 и 2 = 0)+ (площадь между z = 0 и z = 1,5). Поскольку первое слагаемое из соображений симметрии может рассматриваться как площадь между z = 0 и z = 1, искомую площадь (пл.) находим из выражения (пл. от z = 0 до z = 1) + (пл. от а == 0 до z = 1,5). Так как табл. 13 содержит вероятность того, что значение будет лежать правее 2 = 0, и учитывая, что площадь под криЕой правее нуля равна половине, получаем: для z = 1,0 Р = 0,1587, для z = 1,5 Р = = 0,0668, откуда пл. = @,5000 — 0,1587) + @,5000 — 0,0668) = = 0,3413 + 0,4332 = 0,7745, или 77,5% (см. рис. 14). в) для х = 90 мы получили z = — 1,0. Правее г = 1,0 также лежит площадь, равная 0,1587, или 16% (искомая площадь). Проверка вычислений по пунктам а), б), в): 0,0668 + 0,7745 0,1587 1,0000 83
ф 1.3.7. ВЕРОЯТНОСТНАЯ БУМАГА С помощью вероятностной бумаги можно определить, является ли распределение в данной выборке близким к нормальному. Кроме того, попутно находятся среднее значение и стандартное отклонение. Вероятностная бумага (особый вид миллиметровой бумаги) разграфлена таким образом, что при нанесении накопленных частот нормального распределения, выраженных в процентах, получается прямая линия. Ординатная сетка разделена согласно кривой накопленных частот нормального распределения и задает проценты накопленных частот. Ось абсцисс может градуироваться или по линейному закону (в мм), или в логарифмическом масштабе (рис. 15). Значения ординат, равные 0% и 100%, отсутствуют на вероятностной бумаге. Частоты (в %), соответствующие этим значениям, графически не отображаются. Рис. 15. Вероятностная бумага. Суммарная линия на вероятностной бимаге (б %) 99,98v 1% 90 50 W 0,02 0,021 н 55% 5% ! 1 1 / / --- / f В 8 Ю х-шнала (Верхние границы илассоЬ) 3,15 Sg (х) - шиала (середины млассоб) 10 Эмпирическое частотное накопленное распределение (в %) наносится на вероятностную бумагу. При этом следует обратить внимание на отметки границ классов на оси абсцисс. Суждение о линейности выносится на основании кривой между 10 и 90%. Для определения характеристик выборки проводится горизонтальная линия на уровне отметки 50% на оси ординат и точка пересечения проектируется на ось абсцисс. Точка пересечения есть графическая оценка среднего значения (xg). Далее находятся точки пересечения линий, соответствующие 16 и 84%; их проекции на ось абсцисс равны xg + sg n~xg — sg. Вычитая из второго первое, получаем 2sg и отсюда — стандартное отклонение. 84
Среднее значение (xg) и стандартное отклонение (sg) определяются при весьма небольшой расчетной работе и зачастую с вполне достаточной точностью. Кривая накопленных частот нормального распределения строится по следующим характеристическим значениям: для х = {л справедливо у = 50%; » х = \i + а » у ~ 84%; » х = \i — а » у с^. 16%. Проверка распределения на нормальность с помощью вероятностной бумаги дает вполне хорошие результаты. Для более точного исследования этот метод, естественно, непригоден, потому что вес отдельных классов проявляется недостаточно отчетливо, к тому же возможна только плохая оценка того, является ли отклонение от теоретической прямой случайным или нет. В дальнейшем мы изучим другой метод проверки нормальности распределения. Внизу рис. 15 приведена шкала весьма важного логарифмически нормального распределения, рассматриваемого в разделе 1.3.9. Дальнейшие указания можно найти в [Zacek, 1964, 1968]. Другие графические способы рассмотрены в [Mahalanobis, 1960]. Многие эмпирические распределения являются неоднородными смешанными распределениями. Из того факта, что выборочное распределение выглядит однородным и аппроксимируется, например, нормальным законом, не следует однородность распределения отдельных признаков. Нередко оказывается, что найденное нормальное распределение оказывается на самом деле составным. Подробнее об этом [Preston, 1953], [Daeves, Beckel, 1958], [Rohr- berg, 1958], [Weichselberger, 1961], [Ageno, Frontali, 1963], [Bhatta- charya, 1967], [Harris, 1968], [Nothnagel, 1968], [Day, 1969]. Принципиально не может быть доказана однородность материала исследования! Может быть установлена только неоднородность*. Неоднородность не означает непригодности материала, но требует учета при оценивании параметров главным образом построением групп. Примечание* Равномерное, или прямоугольное, распределение При бросании игральной кости можно получить результат 1, 2, 3, 4, 5 или 6. Теоретическое распределение в этом случае равновероятное, т. е. Р (х) = = g- для х = 1, 2, ..., 6. Дискретное равномерное распределение (uniform distribution) определяется выражением Р (х) = \1п для 1 < х < п A.51) со средним значением |i = (я+ 1)/2 A.52) и дисперсией а2 = („2 _ !)/12. A.53) Для нашего примера имеем и = F + 1)/2 = 3,5 и а2 = (б2 — 1)/12 = 2,917. Когда, как в примере, отдельным событиям Е могут быть поставлены в соответствие числа х и их вероятности Р (х) (относительные частоты появления), тогда для параметра теоретического распределения справедлива общая формула ) A.54) 85
и так называемая формула сложения для дисперсии о2 = 2х2Р (х) — ц2. A.55) Например, \х = 1 » g-+ 2 i g- + ..• + 6 • g-= 3,5 и а2 = 1 . g-+ 4 i g- + + ... + 36 * ^ —3,52 = 2,91?. Равномерное распределение выступает также в ошибках округления. Здесь соответственно Р(х) = ±для *=-0,4,-0,3, ..., + 0,5. Параметры: ц = 0,05 и а2 = 0,287. Для равномерно распределенных цифр от 0 до 9 согласно A.52) и A.53) справедливо р = A0 + 1)/2 = 5,5; = 8,25. Постоянная плотность вероятности непрерывного равномерного или прямоугольного распределения (rectangular distribution) в области от а до Ъ определяется выражением f 1/<6-«) для *<*<*; 1 I 0 для x<za или #>&. J Среднее значение и дисперсия: |i = (а+Ь)/2; A.57) а2 = (Ь — аJ /12. A.58) Непрерывное равномерное распределение в прикладной статистике имеет существенное значение: во-первых, когда любое значение в некоторой области равновероятно, и, во-вторых, для аппроксимации относительно небольших участков произвольного непрерывного распределения. Так, например, нормально распределенная величина х в области |д, — а/3 < х < \i + а/3 A.59) аппроксимируется равномерным распределением. Ридер [Pider, 1951] предложил критерий для проверки равенства двух прямоугольных распределений, который основан на соотношении их размахов; работа содержит границы доверительных интервалов с 5%-ным уровнем значимости. 1.3.8. ДРУГИЕ ПАРАМЕТРЫ, ХАРАКТЕРИЗУЮЩИЕ ОДНОМЕРНОЕ РАСПРЕДЕЛЕНИЕ ЧАСТОТ К характеристикам одномерного распределения частот относятся: 1. Меры положения: меры среднего положения распределения (арифметическое, геометрическое и гармоническое средние значения, медиана, мода, интердециальная широта). 2. Меры рассеяния: меры, которые характеризуют изменчивость распределения (дисперсия, стандартное отклонение, размах, коэффициент вариации, интердециальная широта). 3. М е р ы формы: меры, которые характеризуют отклонение распределения от нормального (простые меры асимметрии и эксцесса, а также моменты as и а4). 86
1.3.8.1. Геометрическое среднее Пусть даньмтоложительные числа х1у х2, ..., хп, тогда геометрическим средним xq называется корень степени п из произведения этих чисел: XG = Vxi-X2-Xs- — 'Xn. A.60) Расчет удобно проводить, преобразуя (lg Логарифм геометрического среднего равен арифметическому среднему логарифмов. Если необходимо определить общее среднее из выборок объемом пъ п2, ..., nk, то формируется взвешенное геометрическое среднее по формуле lA Л 63) Геометрическое среднее следует применять прежде всего тогда, когда среднее значение должно быть рассчитано из значений, заданных через некоторые равные промежутки времени (см. пример 1). Геометрическое среднее применяется, когда переменная во времени меняется с приблизительно постоянным соотношением между измерениями. К этому случаю относятся .многообразные явления роста. Прирост населения во времени, число пациентов или эксплуатационные расходы — вот известные примеры подобного типа явлений. Если имеется скорость, изменяющаяся в постоянном соотношении, которую необходимо оценить, то целесообразно данные нанести на логарифмическую бумагу (ордината: логарифмический масштаб, для признака; абсцисса: пропорциональный масштаб, для времени). В предположении изменения скорости в постоянном соотношении график должен получиться близким к прямой, xq есть в этом случае среднее значение скорости возрастания (см. примеры 2 и 3). Геометрическое среднее применяется также тогда, когда отдельные значения в выборке далеко отстоят от остальных значений; это меньше влияет на геометрическое среднее (чем на арифметическое среднее), так что оно дает более правильное представление о среднем. Примеры 1. Служащий получал в течение трех последовательных лет прибавки жалованья соответственно 6,10 и 12%. Процентная надбавка относится к окладу предыдущего года. Определить среднюю прибавку к окладу. 87
Необходимо определить геометрическое среднее из 1,06; 1,10 и 1,12: lg 1,06 = 0,0253 lg 1,10 = 0,0414 lg 1,12 = 0,0492 — lg*j=--0,03863 = \gXG 3 xG = 1,093 В среднем оклад возрастает на 9,3%. 2. В некоторой культуре число бактерий в единице объема за три дня увеличилось со 100 до 500. Определить средний прирост за день в процентах. Обозначим это значение через х, тогда число бактерий после 1 дня 100 + 100* = 100 A + х)\ 2 дня 100 A + х) + 100 A + х) х = 100 A + xf\ 3 дня 100 A + xf + 100 A + xf x = 100 A + xf. Последнее значение равно 500, так что 100A+*K С помощью логарифмирования находим ^5^= 1,710, откудал; = 0,710 = = 71,0%. В общем случае если принять начальное количество за М, постоянную скорость роста в единицу времени за г, то спустя п единиц времени получим В = М (I +г)п. A.64) 3. Пусть за 4 года, п = 4, начальная сумма в 4 млн. марок (М) возросла до 5 млн. марок. Определить среднюю ежегодную скорость роста. Поскольку начальный капитал М марок за п лет увеличился до В марок, то геометрическое среднее роста определяется выражением Получаем в нашем случае ИЛИ r=V — — J М 5000000 « _V/j[_i 4000000 ^ 4 fTT 15 1 ^ =*, тогда \gx = -j- • lg -j- = -^ (lg 5 — lg 4) 0,0217, откуда x = 1,052 и r = 1,052 — 1 = 0,052* Средняя скорость роста составляет 5,2% в год.
Примечание. Число лет п, в течение которых капитал удваивается, получается с хорошей точностью из приближенной формулы Трофтона [Troughton, 1968] п = 70/р + 0,3 или р = 70/(п — 0,3), где р — процентная ставка. Например: р = 5%, п = -g- + 0,3 = 14,3. (Точный расчет следовало бы вести по формуле A + 0,05)" = 2, откуда п = Ig2/lg 1,05 = 14,2.) 1.3.8.2. Гармоническое среднее Пусть даны положительные значения хг, х2, ..., хп\ тогда обратная величина арифметического среднего всех обратных величин называется гармоническим средним хн- ~ П ft r* пг\ л;# = = . A.65) Х1 Х2 ХП Зачастую необходимо отдельным значениям xt поставить в соответствие веса wt и рассчитать взвешенное гармоническое среднее (см. пример 3). п xl X2 xn A.66) В иной форме взвешенное гармоническое среднее задается формулой +++ . A.67) ^1 . П2 Пк -Z—+-Z—+..-+"=— Гармоническое среднее необходимо тогда, когда наблюдения, для которых мы хотим получить арифметическое среднее, заданы обратными значениями, когда эти наблюдения каким-либо образом уже содержат эту обратную зависимость, например часы на километр (вместо км/ч). Другие примеры применения гармонического среднего: расчет средней скорости при заданных траекториях частиц с различными скоростями (пример 2) или расчет средней плотности газа, жидкости, частиц и т. п. при заданных различных плотностях в отдельные промежутки времени. Гармоническое среднее используется при расчете средней продолжительности жизни. 89
Примеры 1. В трех различных магазинах продается определенный предмет по цене: 10 штук за 1 марку, 5 штук за 1 марку и 8 штук за 1 марку. Определить среднее число предметов, которое можно купить за 1 марку. - 3 з х _L _L _L JL 10 + 5 + 8 40 Этот результат можно проверить: 1 шт. = 0,1 1 шт. = 0,2 120 17 =7,06~7,1. м м 1 шт. = 1 шт. = 0,125 м 3 шт. = 0,425 м 0,425 П1Л7 1,0000 = 0,1417, или -7,06, 3 ' ' 0,1417 или 7,1 шт. на 1 марку. 2. Классическим примером применения гармонического среднего является определение средней скорости. Пусть некто проехал от А до Б со средней скоростью 30 км/ч. На обратном пути, от Б до Л, скорость была 60 км/ч. Определить среднюю скорость на всем пути (Do). 2 DG = = 40 км/ч. ——— i_ ——— 30 ~ 60 Примечание Предположим, что расстояние от А до Б составляет 60 км; тогда на путь от А 60 км л 60 км до Б потребуется 30 км/ч = 2 ч, на путь от Б до А 60 км/ч = 1 ч, т. е. п Общий путь __• 120 км время Общее Зч ¦=40 км/ч. 3. В некотором рабочем процессе определены для 5 рабочих расходы времени на изделие в минутах за штуку. Среднее время на штуку для группы из 5 рабочих необходимо рассчитать в предположении, что 4 рабочих работают по 8 ч, а 5 — по 4 ч. Таблица 21 Рабочее время w.y мин 480 480 480 480 240 2^=2 160 Время на штуку x.f мин/шт. 0,8 1,0 1,2 1.2 1,5 . Изготоолено шт. 480/0,8 = 480/1,0 = 480/1,2 = 480/1,2 = 240/1,5 = Цщ/хд = wJxi 600 480 400 400 160 :2040 90
2 (Wi/xt) 2 040 Итак, среднее время на штуку составляет 1,06 мин/шт. Между тремя средними значениями существует следующее соотношение: itf<?o<i. A.68) Причем равенство справедливо при одинаковых выборочных значениях. Для двух значений справедливо ИЛИ X-Xh = Xq. С1-69) 1.3.8.3. Медиана и мода Асимметричное унимодальное (с одной вершиной) распределение характеризуется тем, что большая часть значений расположена с одной стороны от среднего, в то время как меньшая часть значений расположена на большом удалении с другой стороны. Широко цитируемым примером ярко выраженного асимметричного распределения является распределение доходов в стране. Основная масса рабочих и служащих в Германии (Западной) имеет доход ниже 1500 марок, незначительная часть имеет высокие и очень высокие доходы. Имеющийся средний арифметический заработок слишком высок, иначе говоря, среднее значение лежит слишком далеко вправо. Более правильную картину дает медиана (х), равная значению, которое делит распределение на две равные части, так что каждая содержит 50% всего распределения; медиана соответствует тому члену упорядоченного ряда, который делит ряд пополам. Важно заметить, что медиана в противоположность арифметическому среднему не зависит от экстремальных значений в выборке. (Подробнее см. [Smith, 1958], [Rusch—Deixler, 1962], [Dalenius, 1965].) У большинства рабочих и служащих доход оказывается «ниже среднего» из-за того, что «медианный доход» меньше, чем средний арифметический доход. Вершина кривой распределения дает еще лучшее представление, когда изучается основная масса рабочих и служащих. На рис. 16 значение х расположено справа от *, т. е. арифметическое среднее больше, чем медиана, или разность (х — х) положительна; такой тип распределения называют положительно-асимметричным. Более просто объяснить, сказав, что положительно-асимметричное распределение имеет отчетливую вытянутость вправо. При унимодальном распределении мода (см. рис. 16), положение максимума (mode), соответствует наиболее часто встречающемуся выборочному значению\ при многовершинном распределении появляются относительные моды, которые более часто встречаются, чем их соседние значения, относительные максимумы кривой плотности рас- 91
Таблица 22 Класс О <^ V ^" 1 1 С/ <^. Л <s. 1 1 11 <лг<13 13 < д:< 15 15<х<17 17^x<19 Середина класса л:^ 6 8 10 12 14 16 18 Частота f. 4 8 11 7 5 3 2 л = 40 Мода Медиана о х я Рис. 16. Положительная асимметрия с модой (?>), медианой (х) и средним значением (х); медиана делит распределение на две равные части. пределения. При многовершинных распределениях (см. рис. 17) мода непригодна для характеристики среднего положения; распределения называются в этом случае «двухвершинными», или «бимодальными», и «многовершинными», или «мультимодальными». Оценка медианы Если ряд содержит нечетное число значений, то медиана равна «среднему» упорядоченных по величине значений; если п — четное, то имеются два средних 1сх и х2; медиана тогда определяется как х = -х- (*i + х2) (см. также примечание 4 на с. 74). Если отдельные значения бимодальная крибая сгруппированы в классы, то медиану оценивают с помощью следующей интерполяционной формулы: '.6, A.70) Трииодальная нридап 7 /мед где U — нижняя граница класса, которому принадлежит медиана; п — число значений; B/)G — сумма значений и частот всех классов ниже класса медианы; /мед — число значений в классе медианы; Ь — ширина класса. Так как медиана лежит между 20- и 21-м членами ряда, а 4 + 8 = 12 и 4 + 8 + 11 = 23, очевидно, что медиана принадлежит третьему классу: Рис. 17. Кривые с несколькими модами. /мед 92
Грубая оценка моды Строго говоря, мода есть значение переменной, которая соответствует максимуму идеальной кривой, наилучшим образом аппроксимирующей распределение выборки. Точное определение моды затруднительно, но для большинства практических случаев пригодна формула 2.fu -/«-i- fu+i A.71) где U — нижняя граница класса,[к которому относится наибольшее число значений; /и — число значений в этом классе; /и_! и /и+1 — числа значений в соседних классах; Ь — ширина класса. Пример Для распределения предыдущего примера "~8—V 1-8-7J 2 = 9,86. Здесь D есть максимум аппроксимирующей параболы, проходящей через три точки (*и_ь /u_i); (хи9 fu) и (хи+19 /и+1). Соответствующее арифметическое среднее лежит несколько выше (х = 10,90). Для положительно-асимметричного унимодального распределения, как в нашем примере, справедливо D<.!e<Lx (рис. 18). -шкала с пятикратным растяжением 4 1 10,05 9 10 11 12 Рис. 18. Распределение частот с положительной асимметрией. Для унимодального симметричного непрерывного распределения значения моды, медианы и среднего совпадают. Это справедливо, естественно, и для распределения /7-образной формы. Примерами асимметричных распределений этого типа являются: смертность от гриппа в зависимости от возраста, так как грудные младенцы и старики подвержены гриппу наиболее сильно, или облачность в Бреслау за 1876—1885 гг., выраженная в десятых: на 751 безоблачный день и 2089 дней с густой облачностью приходится всего 9 дней, когда небо было покрыто облаками на 5/10. 93
1.3.8.4. Стандартная ошибка арифметического среднего и медианы Мы знаем, что с ростом объема выборки оценки параметров стремятся к параметрам генеральной совокупности; в частности, и выборочное среднее х стремится к \i. Насколько сильно х может отличаться от ц,? Отклонение будет тем меньше, чем меньше стандартное отклонение совокупности и чем больше объем выборки. Поскольку среднее значение есть случайная величина (как сумма случайных величин), оно имеет соответствующее распределение вероятностей. Стандартное отклонение (теоретическое) среднегоис из п случайных переменных хх, ..., хпу которые имеют одно и то же распределение, рассчитывается по следующей формуле: где а — стандартное отклонение для xt. В качестве грубой оценки а*, стандартного отклонения арифметического среднего, служит выражение n(n-l) V f Z (x- Для наблюдений с разными весами х = - Физики называют s средней ошибкой отдельного измерения, a s^ — средней ошибкой среднего значения. Целесообразно заметить, что уменьшению ошибки в два раза соответствует увеличение объема выборки в 4 раза! S = J ?__ Т/4я~~ 2 " У л * В предположении нормальности распределения стандартная ошибка медианы определяется следующим выражением: т. е. она в 1,25 раза больше, чём ошибка арифметического среднего, и поэтому медиана — менее точная оценка, чем арифметическое среднее. Расчет стандартного отклонения для моды затруднителен. Для суждения о качестве измерений записывают результат в виде среднего значения с соответствующей ошибкой: ~х±в». A.75) (Важным дополнением является доверительный интервал, см. раздел 3.1.) 94
При этом ошибка округляется до двух значащих цифр; например, х = 49,36 при sx = 0,228 записывают в виде 49,4 ± 0,2. Часто ошибку задают в процентах — для большей наглядности. Для последнего примера ±JLlgj = ± 0,2-100 =±0>4%. ( Окончательный вид суммы, разности, произведения и частного средних значений с соответствующими ошибками [Fenner, 1931]: .77) Сумма х 1 + Х2 "v Л- ~Y J_* V* -I- 1/ Л\ "Т" Л2 —\~ Л3И1 V Разность хх—х2± Произведение ххх. — 1 / —2 ~2 2 X1X2XS±V Х\Х2 Sx,' Частное -~: Х2 ±1/4 /2,2 Sxt + S; 2±Г Х\ , ~2 ~2 +4 - _i_ - 2 2 , • • —2 2 *2 sjt ; 2 , ~2 " 2 v2 r «^2 Хз SXl 4- A.79) A.80) Независимость предполагается. Здесь следует упомянуть закон преобразования ошибок степенных произведений. Пусть мы имеем некоторое функциональное соотношение h = kxaybzc... A.81) (с постоянными ky a, b, с, ... и переменными х, у, г, ...) при заданных &, а, 6, с,...» и нам необходимо определить по независимым измерениям Xt, Угу zt, ^. среднюю относительную ошибку (среднее относительное значение) /z, а именно s^ /h, для чего нужны средние значения переменных х, уу z, ... и их стандартные ошибки sj, Sy> Sz, ... Тогда средняя относительная ошибка определяется следующим выражением: -ylyf+{c-s-zlzf+... A.82) 1.3.8.5. Размах Простейшей мерой рассеяния является размах (англ. range). Размах R есть разность между наибольшим и наименьшим значениями в выборке: *шт- A.83) 95
Если выборка состоит только из двух значений, то размах является исчерпывающей характеристикой рассеяния. При увеличении объема выборки эта мера уже становится недостаточной, потому что она ничего не говорит о среднем положении и учитывает только крайние, экстремальные значения. Поэтому размах используется преимущественно при малых выборках (см. также с. 459—460). Примечания о размахе 1. Кому часто приходится определять стандартное отклонение, тот может с успехом пользоваться методом, предложенным в [Huddleston, 1956]. Автор исходит из усеченного размаха, поделенного на соответствующий коэффициент, и получает при этом хорошую оценку для s; таблицы и примеры следует взять в оригинальных работах автора (см. также [Harter, 1968]). 2. Когда задано много взаимно независимых пар наблюдений п\ размах может служить оценкой стандартного отклонения s = l/ ±5-.. A.84) К 2л' Знак Л над s обозначает оценку. 3. Если даны повторные выборки объема п, то средний размах (R) дает возможность удовлетворительно оценить стандартное отклонение по формуле я = A/<*„)•«. A.85) Выражение A.85) содержит коэффициент l/dn, который зависит от объема выборки и основан на предположении о нормальности распределения. Этот множитель приведен в табл. 156. Позднее мы к этому еще вернемся (с. 459). 4. Приближенное правило Стургеса (Sturges) для определения ширины класса в распределении частот основано на размахе и объеме выборки: Ьса - A-86) 1 + 3,32-lgn Для распределения, приведенного на с. 60 (табл. 11), получается 6= 2е4. мы выбрали 3. 5. Размах позволяет оценить максимальное значение стандартного отклонения [Guterman, 1962]: n-1 > s. A.87) Отличие эмпирического стандартного отклонения от его верхней границы может служить мерой точности оценивания. Для трех значений —3, 1,5 — при = 2 получаем Выражение A.87) дает возможность грубой оценки стандартного отклонения, когда известен только размах, а о форме распределения заранее ничего сказать нельзя. 6. Грубая оценка стандартного отклонения по экстремальным значениям гипотетической выборки очень большого объема: пусть нам известно, что распределение хорошо приближается к нормальному закону, тогда стандартное отклонение генеральной совокупности приближенно может быть оценено по формуле S^~, A.88) 6 96
так как в предположении нормальности распределения размах в 6а включает 99,7% всех значений. Для треугольного распределения справедливо #/4,9< ? < Я/4,2; применимо для левостороннего (левоасимметричного), s^fl/4,2), симметричного (s~R/4,9) и правостороннего (правоасимметричного, saiR/4,2) распределений; для равномерного, или прямоугольного распределения (си) s ~ Я/3,5; а для V-образного распределения справедливо s ~ Я/2. В качестве примера можно рассмотреть ряд 3, 3, 3, 3, 10, 17, 17, 17, 17, который аппроксимируется (/-образным распределением. Для стандартного отклонения получаем s = V8.72/(9— 1) = 7, или s~A7—3)/2 = 7. Провертье на других выборках! 7. Следует упомянуть еще об одной особенности размаха: желаемые параметры выборочного распределения получаются без учета того, что исходная генеральная совокупность принадлежит к нормальному распределению (центральная предельная теорема); учитывается только распределение размаха! 1.3.8.6. Интердецильный размах Упорядоченные данные делятся девятью значениями на десять равных частей. Эти значения мы назовем децилями и обозначим DZl9 DZ2, ..., DZ9. Первый, второй, ..., девятый децили получаются отсчетом я/10, 2/г/Ю, ..., 9/г/Ю значений. Можно определить k-й дециль как значение, соответствующее точке на шкале распределения частот, ниже которой попадает в точности 10 • k% случаев. Вспомним, что тогда 5-й дециль — это точка, ниже которой лежит 50% всех случаев, т. е. это медиана. Мерой рассеяния, которая, в противоположность размаху, почти не зависит от экстремальных значений и в то же время включает в себя большую часть случаев и имеет очень малые колебания от выборки к выборке, может служить интердецильный размах /80, включающий в себя 80% всего выборочного распределения. A.89) Этот размах как мера положения превосходит моду. Дециль интерполируют линейной зависимостью A.70), заменяя /г/2 через 0,1/г, ..., 0,9/г, 7/ — через значение нижней границы класса, B/)^ — через сумму значений частот всех классов внутри децильного класса и /мед — через значение частоты децильного класса. Для примера на с. 92 имеем: 4 36~35 -2=15,67. 3 Интердецильный размах /80 = 15,67 — 7 = 8,67. Значение DZX может быть вычислено непосредственно из формулы Ю = 40/10 = 4 как нижняя граница второго класса. DZ9 определяется выражением ~^г = * = 36, DZ9 равен значению 36-го члена ряда. 35 значений разделяются на классы 1—5. Необходимо еще одно 4 Зак. 930 97
значение 36—35 = 1 из класса 6, имеющее частоту, равную 3. Мы умножаем значение 1/3 на ширину класса и получаем корректирующий член, который суммируется с нижней границей класса 6 и дает значение децили. Другая мера рассеяния только для особых случаев — среднее абсолютное отклонение — рассматривается в третьей главе. Грубая оценка среднего значения и стандартного отклонения для приближенного нормального распределения основана на первом, пятом и девятом децилях и задается следующими выражениями: х ~ 0,33 (DZ1 + x + DZ9); A.90) s~ 0,39 (DZ9 — DZ1). A.91) Пример Для нашего примера (см. с. 92) имеем согласно A.90) и A.91): х = 0,33 G+10,45 +15,67) = 10,93; F~ 0,39 A5,67 — 7) - 3,38. Сравнение со значениями х = = 10,90 и s=3,24 показывает приемлемость этой простой оценки. Для нормальной выборки приближение вполне удовлетворительно (хорошая проверка правильности счета!). Если выборка распределена не по нормальному закону, то и тогда эти простые и быстрые оценки при определенных обстоятельствах, как в приведенном примере,^ могут быть лучше, чем оценки параметров "х и s, полученные обычным способом. Рис. 19. Интердецильная область, содержащая 80% распределения с модой D и медианой л*. Нижнее U-образ- ное распределение имеет две моды. 1.3.8.7. Асимметрия и эксцесс Обычно различают два типа возможных отклонений от нормального распределения (рис. 20). ¦ I. Одна из спадающих ветвей удлинена, распределение скошено, асимметрично; когда удлинена левая ветвь, то говорят об отрицательной асимметрии, если удлинена правая ветвь, то асимметрию называют положительной. Или, иначе: если главная часть распределения концентрируется с левой стороны, то асимметрию называют положительной. II. Максимум расположен выше или ниже, чем у нормального распределения. Если максимум выше и кривая, колокол, острее, то говорят о положительном эксцессе; при отрицательном эксцессе максимум ниже, распределение более плоское, чем нормальное. 98
Асимметрия (skewness) и эксцесс (kurtosis) определяются точно через моменты. Часто применяются следующие меры асимметрии и эксцесса: асимметрия 1=— --> A.92) использующие редко достижимые границы — 3 и 3. Если арифметическое среднее больше медианы, как на рис. 18, то асимметрия положительна. Положи те ль нал асимметрия Нормальная Лебая I .Ж" Х^Смоской Вершиной кривая Отрицательный эксцесс Рис. 20. Отклонения от симметричной колоколообразной кривой (нормальное распределение). Другая пригодная мера асимметрии основана на применении медианы и интердецильного размаха: асимметрия II =.ШЪ=^ЫЬ?*й.9 A.93) (DZ^+tfDZ) и изменяется от — 1 до + 1. Примечание. Квартиль Распределение частот делится тремя значениями на четыре равные части. Центральное значение есть медиана, другие называются нижним, или первым, квартилем и верхним, или третьим, квартилем, т. е. Qx соответствует тому значению, которое стоит в конце первой четверти упорядоченного по величине ряда; Q3 соответствует концу третьей четверти этого ряда. Если заменить в A.93) DZL и DZd на Qt и Q3t то получим (область: от —1 До + 1): асимметрия III = — ~ (*y4j <Q При симметричном распределении все три меры асимметрии равны нулю. Простая мера эксцесса, которая основана на квартилях и децилях, дается следующим выражением: эксцесс 2^1 A.95) 2(DZ9~DZ1) ' v для нормального распределения он равен 0,263. 4* 99
Если разность между средним значением и модой больше или равна соответствующей удвоенной стандартной ошибке 2n, A.96) то распределение уже нельзя считать приближенно симметричным. Для примера на с. 92 имеем A0,90 — 10,20) - 0,70 >2/3-3,24/B-40) = 0,697, так что расчет меры асимметрии необходим. В этом случае может оказаться также целесообразным оценить стандартное отклонение по данным на неасимметричной стороне (у нас xt < D) от моды (предполагая нормальность распределения). Мода тогда будет наилучшей оценкой для среднего. Примеры Используем данные из последнего примера: асимметрия I = 3A0,90-Ю,4Щ =0>417. асимметрия II = A5,67-Ю,45)-A0,45-7,00)= ^ A5,67— 10,45) + A0,45—7,00) Т1Т A3,00—10,45)—A0,45—8,50) п 1QQ асимметрия III = -— —-—-—¦ —7=0,133, Н A3,00-10,45) + A0,45-8,50) где Q, = 7 + ^i • 2 = 8,5, Q3 = 13 + 30 ~ 30 • 2 = 13, согласно A.70) подставляем я/4 и Зя/4 вместо я/2: 13,00—8,50 п oari эксцесс = ¦ = 0,260. 2A5,67—7,00) Это распределение имеет положительную асимметрию при нормальном эксцессе. Для расчета асимметрии и эксцесса генеральной совокупности с использованием моментов а3 и а4 применяются следующие формулы: x)\ A97) 2fi{Xi-x) -3. A.98) Для симметричного распределения а3 = 0, для нормального распределения а4 = 0. Если а3 — положительно, то имеем левостороннее распределение, если а3 — отрицательно, то распределение правостороннее. Распределение с более острой вершиной — с крутизной, большей, чем у нормального распределения, — или с положительным эксцессом имеет положительное значение а4; распределение с отрицательным экс- 100
цессом — более плоское, чем нормальное распределение, — характеризуется отрицательным значением а4, особенно значительным при бимодальном распределении ([Finucan, 1964], [Chissom, 1970] и [Darlington, 1970]). Прямоугольное распределение с резко выраженным «плечевым поясом» имеет отрицательный эксцесс (а4 = — 1,2). То же самое справедливо даже для треугольного распределения (а4 = — 0,6), которое по отношению к нормальному распределению с равной дисперсией имеет более отчетливый «плечевой пояс». Обе меры имеют смысл только при больших выборках (п > 100). Для иллюстрации воспользуемся примером с выборкой меньшего объема (п = 40), но прежде еще одно замечание о моментах. Выражение вида A.99) называется выборочным моментом порядка г (тг). При г = 2 имеем оценку дисперсии. Оба моментных коэффициента а3 и а4 сокращенно записываются в виде а3 = m3/s3 и а4 = mj^ — 3. A.97а) A.98а) Если величина класса не равна 1, то имеем A.100) Для облегчения расчетов обычно моменты относят не к арифметическому среднему, а к произвольной величине, скажем к d, к частоте наибольшего класса распределения частот. Этим способом мы уже пользовались (способ с умножением, см. с. 76—77). Полученные подобным способом моменты для отличия их от тг будем обозначать через т'г. Таблица xi 8,8 9,3 d = 9,8 10,3 10,8 11,3 11,8 23 4 8 11 7 5 3 2 40 —2 —1 0 1 2 3 4 —8 —8 0 7 10 9 8 18 16 8 0 7 20 27 32 110 -32 —8 0 7 40 81 128 216 h4 64 8 0 7 80 243 512 914 4 0 11 112 405 768 1250 2550 101
Обозначим снова —-— = z и получим моменты от первого до четвертого порядка (см. табл. 23): момент 1-го порядка т{=—'vZl = — = 0,45; п 40 момент 2-го порядка /т?2 = момент 3-го порядка /пз = момент 4-го порядка т'А = ПО п п Zfi-zf 40 216 40 914 40 A.101) = 2,75; A.Ю2) = 5,40; A-ЮЗ) = 22,85. A.W4) Для проверки правильности вычислений в табл. 23 содержится дополнительный столбец произведений ft (zt + IL. Сумма его членов равна 2/, (z, + 1)* = 2/, + 42/, zt + 62/, zf + 42/, zf + 2/, z?, A.105) 2550 = 40 + 72 + 660 + 864 + 914. Выражения для параметров имеют следующий вид: 1. Среднее значение х = d + bm{, * = 9,8 + 0,5 • 0,45 = 10,025. 2. Дисперсия s2 = b2 {m'2 — ml2), s2 = 0,52 B,75 — 0,452) = 0,637. о a b3 (trio—3m[ mL-\- 2m{3) 3. Асимметрия a3=—*-2 ^—?-H—L-l.^ ^_ 0,53E,40-3-0,45-2,75+2-0,453) 3 0,5082 4. Эксцесс fl4= ^«-ii A.106) A.107) 71 1ЛОЧ A.108) ^ 0,54 B2,85— 4-0,455,40+ 60,452»2,75— 3-0,45*) 0,4055 Т а б л '< 4 8 11 7 5 3 2 ица 24 4 12 17 10 5 2. s2 4 34 = б 17 7 2 За 4 20 = ?i 60=?2 26 9 2 4 24 = ?* 97 = ?2 37 11 2 * 4 28 = % 147 = ri2 50 13 2 102
Кто хочет просчитать еще один пример, тому можно порекомендовать выборочное распределение в табл. 22, которое от табл. 23 отличается только средними классов xt (и Ъ) при равенстве частот ft. Если под руками есть вычислительная машина, то стоит вычислить суммы 2/jZb 2/,-z?, 2/,-г? и Е/гг? по методике, приведенной на с. 77—78. К значениям б1( б2 и е^ е2 мы по столбцам S4 и 55 должны подсчитать еще четыре суммы: ?ъ ?2 и % и ti2 (cm. табл. 24) по формулам: /г, = б2 — Sj; = 2е2 + 2^ — б2 — бх; ВД = б?2 — 6^ - бе2 + евх + б2 — б1; . = 24ii2 + 24Л1 — 36?2 — 36?х + 14е2 + 14ех — б2 Подставляя данные из табл. 24, получаем: S/,z, = 34 — 16 = 18; 2/гг? = 2-60 + 2-20 — 34 — 16= 110; Z/,z? = 6 • 97 — 6 • 24 — 6 • 60 + 6 • 20 + 34 — 16 = 216; 2/,г? = 24 • 147 + 24 • 28 — 36 • 97 — 36 • 24 + 14 • 60 + + 14 • 20 — 34 — 16 = 914. Далее параметры определяются по формулам A.101) — A.109). Для расчета моментов второго и четвертого порядка при выборках очень большого объема, а также при выборочном распределении без асимметрии следует воспользоваться выражением для скорректированной по Шеппарду дисперсии: A.46) = «i — A /2) т^ Ь* + G/240) Ь*. A.110) Меры асимметрии и эксцесса, рассчитанные на основании моментов, имеют то преимущество, что для них известны стандартные ошибки (выражения для них громоздки и здесь не приводятся). Заключение. Если данные сгруппированы в классы с шириной класса Ь, средними классов xt и частотами ft , то среднее значение, дисперсия и моментные коэффициенты для асимметрии и эксцесса оцениваются по следующим формулам: A A.111) 103
где d — предполагаемое среднее, обычно среднее значение наиболее полного класса; b — ширина класса; / — частоты классов, точнее ft; z — отклонения zt = (xt — d)lb: класс со средним значением d имеет номер 0, убывающие классы имеют номера z = — 1, — 2, ..., возрастающие — номера z = 1, 2, ... Метод моментов был предложен Карлом Пирсоном (К. Pearson, 1857—1936). Им введены также понятия стандартного отклонения и нормального распределения. Значащие цифры параметров Среднее значение и стандартное отклонение обычно задают, как правило, на один, максимум два, десятичных знака точнее, чем исходные данные; последнее рекомендуется в особенности для выборок большого объема. Безразмерные постоянные, как симметрия и эксцесс, корреляционные и регрессионные коэффициенты и т. д., необходимо задавать с двумя, максимум с тремя, значащими цифрами. Для увеличения точности необходимо промежуточные результаты, такие, как моменты, рассчитывать на две или три цифры точнее, чем окончательные значения. Теперь мы в состоянии одномерное распределение частот представить, наряду с табличной и графической формами, в форме четырех параметров: среднего значения, меры рассеяния, меры асимметрии и меры эксцесса. 1.3.9. ЛОГАРИФМИЧЕСКИ-НОРМАЛЬНОЕ РАСПРЕДЕЛЕНИЕ Многие распределения в природе имеют вид положительно-асимметричных, крутых слева и плоских справа распределений. Наглядным указанием на то, что признак распределен не по симметричному нормальному закону, является наличие ограничений, за которые признак не может перешагнуть, и возможность изменения задана в одну сторону от этого ограничения. Классический пример есть распределение времени (нижняя граница — нуль). Когда распределение ограничено слева от нуля, то логарифмирование значений приводит к приближенно нормальному закону. Благодаря логарифмированию область от 0 до 1 переводится в область от — оо до 0 и левая часть распределения сильно растягивается. Это справедливо особенно в тех случаях, когда стандартное отклонение велико по сравнению со средним значением, когда коэффициент вариации больше чем 33%. Наличие логарифмически-нормального закона может указывать на то [Aitchison, Brown, 1957], что многие случайные величины действуют мультипликативно, т. е. действие их на изменение конечной величины примерно пропорционально их изменению. В противоположность этому нормальное распределение появляется при аддитивном действии многих случайных величин. Очевидно, что логарифмически-нормальное распределение справедливо для многих биологических и экономических явлений и признаков. Примеры: чувствительность зверей к определенного вида бактериям;
у людей — рост (детей), размеры сердца, объем груди, частота пульса, верхнее и нижнее кровяное давление, скорость оседания красных кровяных телец, процентное содержание отдельных видов белых кровяных телец ([Gaddum, 1945], [Wachholder, 1952]); экономические признаки — месячная заработная плата рабочих и служащих, оборот предпринимателей, посевные площади под различными культурами в деревне. Близкое к логарифмическому распределение часто имеют такие признаки, которые могут выражаться только целыми числами, например число свиноматок на единицу площади и число плодовых деревьев в селе. В [Williams, 1940] исследовано 600 предложений, взятых из книг; при рассмотрении первых 15 предложений получена логарифмически- нормальная плотность вероятности. fJ * r 2-0,29* У " 0,29.УЙ где у — частота, х — логарифм числа слов в предложении. Число букв (и фонем) на слово в английском разговорном языке также распределено логарифмически-нормально [Herdan, 1958, 1966]. Логарифмически-нормальное распределение появляется также при анализе продолжительности жизни и в аналитической химии: при расчетах в широкой области концентраций (свыше нескольких порядков), при работах вблизи 0 и 100% (например, исследование частоты) и когда случайные ошибки способа сравнимы с самими измеряемыми величинами, например при полуколичественном спектральном анализе. Логарифмически-нормальное распределение определяется следующим выражением: -L.e *« для*>0. A-115) х Для проверки того, следует ли признак логарифмически-нормальному закону, применяется логарифмическая вероятностная бумага, которая по оси абсцисс имеет логарифмический масштаб. Накопленная вероятность наносится, начиная с нижней границы классов до верхней. Границы классов и значения границ признаков принимаются справа, если построение идет от меньших значений к большим, и наоборот. Если наносимые точки близки к прямой, то закон распределения близок к логарифмически-нормальному. Если прямая линия в нижней части загибается вверх (вниз), то наносят суммарные проценты исходя не из заданных значений границ lg gy а из значений lg (g + F) [или lg (g — F)]; точка схода F, нижняя граница распределения, расположена на крутой части кривой. Она подбирается методом проб: если при одном значении наблюдается изгиб влево, а при другом значении — изгиб вправо, то искомая точка находится в этом интервале и легко интерполируется. Иногда F можно хорошо интерпретировать по существу дела, явления. 105
Для графического определения параметров проводят аппроксимирующую прямую; точки пересечения прямой с 5, 50 и 95%-ными линиями проецируют на ось абсцисс и считают соответственно значения: (медиана)/(коэффициент рассеяния), (медиана) и (медиана) х X (коэффициент рассеяния). Определяющая часть логарифмически-нормального распределения содержащая 90% всех значений, находится в диапазоне (медиана) • (коэффициент рассеяния) ±! (область не уменьшена на экстремальные значения и содержит «еще типичные значения»). Коэффициент рассеяния ниже будет объяснен подробно. Для расчета параметров необходимо по данным, сгруппированным в классы постоянной широты, рассчитать логарифмы средних значений классов (Igxj), произведения fj • lg*,- и fj(\gXjJ (Д — частота по классам), просуммировать их и подставить в выражения: медиана/, = antilg x[gx.= antilg( 2filgXi V A.116) J \ n ) коэффициент рассеяния = antilgj/ sfg x. = A.117) n—1 = antilg (x *gx}. A.118) 3 4 5 5 5 5 5 6 7 7 7 7 8 8 9 9 10 11 12 14 21 0 0 0 0 0 0 0 0 0 0 0 0 0 о, о, о, 1,' 1, 1, 16, ,4771 ,6021 ,6990 ,6990 ,6990 ,6990 ,6990 ,7782 8451 8451 8451 8451 9031 9031 9542 9542 0000 0414 0792 1461 7141 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0, 0, 1, 1, 1, 1, 14, ,2276 ,3625 ,4886 ,4886 ,4886 ,4886 ,4886 ,6056 ,7142 7142 7142 7142 8156 8156 9105 9105 0000 0845 1647 3135 5104 мода,, = antilg (xigx.—2,3026 4^.). A.119) При малых выборках вместо логарифмов средних классов применяют логарифмы отдельных значений; частота для каждого класса (ft) тогда равна единице. Оценкой коэффициента рассеяния является antilg s\gXt. С увеличением коэффициента рассеяния арифметическое среднее смещается вправо от медианы, а мода — на удвоенное значение влево (см. также с. 466) [Gebelein, 1950], [Binder, 1962, 1963], [Nelson, David, 1967] и [Thoni, 1969]. Пример Приведенная слева таблица содержит 20 упорядоченных по величине значений xJy которые распределены по логарифмически-нормальному закону. Оцените параметры. Коэффициент вариации исходных данных 2 83 (xj) равен ^==7l5== 38>^% и заметно больше чем 33%! 106
Параметры: медиана^ antilg{-^^) = antilg 0,8357 = 6,850; ээффициент рассеяния = antilgl/ —- ТЛ/*Ч ^/4"\г1лтгтт ттлттт *ч л^лл*"»»»*** *-т л ¦"! 4* J I /Т 1 / • * 1 * / 20—1 = antilgK0,02854 = anlilg 0,1690 = 1,476; центральная часть распределения (90%) лежит между 6,850/1,476 = .= 4,641 и 6,850 • 1,476 = 10,Ш (или 6,850 * 1,476**); среднее значение!. = antilg @,8357 + 1,1513 • 0,02854) = = antilg 0,8686 = 7,389; мода/, = antilg @,8357 — 2,3026 • 0,02854) = antilg 0,7700 = = 5,888. Несимметричный 95%-ный доверительный интервал для |д Удобно определяется также с применением логарифмического преобразования 95%-ный доверительный интервал для \i (95%-ДИ) (см. разделы 1.4.1 и 3.1.1). Для этого преобразуют значения, рассчитывают 95%-ДИ и совершают обратное преобразование: 95%-ДЯ: antilg[ ±/я_1; о.о Для нашего примера с 20 значениями и при х = 7,35 получаем: [ ] = 0,8357 ± 2,093]Л),02854/20 = 0,7566, 95 %*ДИ: 5,71 <jx< 8,22. Примечания 1. Для сравнения мер положения эмпирического нормального распределения (примерно одинакового вида) имеются таблицы [Moshman, 1953]. 2. Распределение экстремальных значений — высший уровень рек, годовая температура, урожай и т. п.—часто подчиняется логарифмически-нормальному закону. Так как стандартный учебник [Gumbel, 1958] труден для восприятия, то лучше воспользоваться более простыми графическими способами, рекомендованными в [Botts, 1957] и [Weiss, 1955, 1957]. Гумбель излагает идею применения вероятностной бумаги, на которой функция распределения экстремальных значений имеет вид прямой (см. также [Maritz, Munro, 1967]). 3. Многие распространенные социально-экономические величины, как, например, доход на душу населения, капиталы фирм, размеры городов или число фирм во многих отраслях, имеют распределение, более растянутое справа, которое в большой области значений аппроксимируется распределением Парето [Quandt, 1966) или другим сильно вытянутым вправо распределением (оно существует только для значений выше некоторой величины, например: доход > > 800 марок). Если логарифмически-нормальное распределение усечено до моды, то в остальной части распределение аппроксимируется распределением Парето. 4. Если среди значений, преобразуемых логарифмированием, имеются значения между 0 и 1, то все данные умножают на число 10 в соответствующей степени, чтобы все значения были больше чем 1 и не получалось отрицательных параметров Fм. с. 466—467). 107
1.4. ПОДХОД К СТАТИСТИЧЕСКИМ КРИТЕРИЯМ 1.4.1. СТАТИСТИЧЕСКАЯ НАДЕЖНОСТЬ От статистик к параметрам. Статистики, получаемые по различным выборкам, как правило, отличаются друг от друга. Поэтому статистика, получаемая из выборки (например, среднее значение Зс), есть только оценка для параметра jut — среднего значения генеральной совокупности, которой принадлежит данная выборка. Эта оценка дополняется интервалом, которому принадлежит предположительно параметр генеральной совокупности. Этот интервал около статистики, который должен включать в себя параметр, называется доверительным интервалом (confidence interval). Величина доверительного интервала, зависящая от соответствующего коэффициента, позволяет установить, насколько надежно высказывание о том, что этот интервал содержит параметр генеральной совокупности. Если мы выберем коэффициент таким, что высказывание в 95% подобных случаев окажется правильным и только в 5% неправильным, то мы говорим: со статистической надежностью S в 95% доверительный интервал выборочной статистики содержит параметр генеральной совокупности. Вместе с тем в 5% всех случаев утверждение «параметр принадлежит доверительному интервалу» будет неверным. Мы выбираем коэффициент таким, чтобы вероятность эгого не превысила заданного маленького значения а (а ^ 5%, т. е. а ^0,05), и называем а вероятностью ошибки, или вероятностью превышения уровня*. В случае нормально распределенной генеральной совокупности табл. 25 дает представление о доверительном интервале для среднего значения |li генеральной совокупности: г—т=- или р(х—г ~^=г < |л <# + z ~т=- )=S = 1—а A.120а,б) Уп \ Уп Уп I Величину z следует определять по таблице стандартного нормального распределения (см. с. 68 и 204); а известна или при очень большом объеме выборки (nG > 1000) определяется как оценка стандартного отклонения (па связана с п через У, гДе п — объем выборки при оценке х). При так называемом доверительном решении с вероятностью а часто возникают ошибки. Если п раз высказывается утверждение, что неизвестный параметр лежит в доверительном интервале, то в среднем следует ожидать an ошибок. Если мы внимательнее ознакомимся с табл. 25, то увидим, что S (или а, они дополняют друг друга до 100%, или до 1) определяют надежность статистического высказывания. * В отечественной литературе в данном случае применяется термин «уровень значимости». — Прим. ред. 108
Таблица 25 Доверительный интервал для среднею значения р, из нормально распределенной генеральной совокупности Статистическая надежность 5 Вероятность ошибки а x±2-—7z=- /n ~X±3*—T=- x± 1,645 —~=r- G х± 1,960 /я "х± 2,576 -4=- л; ± 3,2905-7=^- л; ±3,8906—т^- /я 95,44% = 0,9544 99,73% =0,9973 90% = 0,9 95% =0,95 99% =0,99 99,9% = 0,999 99,99% =0,9999 4,56% = 0,0456 0,27% =0,0027 10%ф=0,10 5% = 0,05 1% =, 0,01 0,1% =0,001 0,01% =0,0001 Чем больше статистическая надежность 5, тем больше доверительный интервал при заданных стандартном отклонении и объеме выборки. Из этого следует, что существует противоречие между категоричностью высказывания и надежностью этого высказывания: надежное высказывание некатегорично\ категоричное высказывание ненадежно. Вероятности ошибки (доверительные вероятности) обычно принимаются равными а == 0,05; а = 0,01 и а = 0,001 и зависят от того, насколько важно решение, которое принимается на основании выборки. В особых случаях, прежде всего тогда, когда исследуемые процессы представляют опасность для жизни человека, необходимо принимать еще меньшие вероятности ошибок. В гл. 3 мы еще раз вернемся к понятию доверительного интервала. Заключение о параметрах, основанных на статистиках. Параметры генеральной совокупности могут быть известны только на основании теоретических соображений. Определим область, в которой будет лежать статистика (например, среднее значение х) отдельной выборки. Для этого около теоретического значения параметра определяется допустимый доверительный интервал (tolerance- interval), внутри которого должна с заданной вероятностью находиться выборочная статистика. Границы интервала называются допустимыми границами (в смысле А. Вальда и Дж. Вольфовица; с «допусками» (specifications) в технике они не имеют ничего общего). В предположении нормальности распре- 109
деления (а — известно или оценено при па > 100) выражение для допустимых границ выборочного среднего имеет следующий вид: \1±г \1±г~ или P(\i— z-=t=-<*<[*+г -H_)=S=1— a. уп \ \/п у п / A.121 а, б) Если в табл. 25 символы \ь и х поменять местами, то можно произвести и эти расчеты. Со статистической надежностью 5 выборочное среднее х будет накрываться интервалом, т. е. в (S • 100)% всех случаев Сбудет находиться внутри допустимого интервала. Если выборочное среднее попадает в допустимый интервал, то отклонение от среднего значения генеральной совокупности рассматривается как возможное случайное; в противоположном случае можно сделать вывод о том, что данная выборка с надежноегью S взята из другой генеральной совокупности. Иногда интерес представляют только допустимые границы; тогда лишь проверяют, в каком соотношении находится определенная величина к заданному значению (выше или ниже; например, когда это регулируемая величина какого-то технологического процесса). 1.4.2. НУЛЬ-ГИПОТЕЗА И АЛЬТЕРНАТИВНАЯ ГИПОТЕЗА Гипотеза о том, что две совокупности, рассматриваемые с точки зрения одного или нескольких признаков, одинаковы, называется нуль- гипотезой. При этом предполагается, что действительное различие равно нулю, а найденное из эксперимента отличие от нуля носит случайный характер. Поскольку статистические критерии могут установить только отличие, но не одинаковость совокупностей относительно рассматриваемых признаков, то нуль-гипотеза, как правило, выдвигается для проверки, нет ли оснований для ее отбрасывания и принятия альтернативной гипотезы. Когда мы можем с помощью статистических критериев отвергнуть нуль-гипотезу и принять альтернативную? Только тогда, когда отличие в обеих совокупностях не носит случайного характера. Зачастую мы имеем в распоряжении две выборки и ничего не знаем о генеральных совокупностях, из которых они взяты. Мы должны тогда рассмотреть вариацию выборок, которые имеют различные значения статистик даже для выборок из одной совокупности. Из этого следует, что различия надо ожидать практически всегда. Для решения, является ли это различие случайным или значимым, мы должны установить границы, где господство случайности «как правило» заканчивается. Итак, мы выдвигаем нуль-гипотезу и отвергаем ее тогда, когда по выборке получается результат, который при истинности выдвинутой нуль-гипотезы невозможен (маловероятен). Необходимо точно определить, что мы хотим рассматривать как «невозможность» (в предположении нормальности распределения)., ПО
Часто принимают 5%, т. е. границей невозможного или маловероятного считают 1,96 - о (S = 95%). Раньше использовали почти всегда правило трех сигм, т. е. вероятность ошибки принимали равной а == = 0,0027 (статистическая надежность S = 99,73%), которая соответствует границам в За. Мы можем, например, выдвинуть требование, чтобы вероятность события была (по крайней мере) равна 95%. Это требование означает, что при бросании монеты четырехкратное появление герба еще допускается как вероятное, в то время как пятикратное уже рассматривается как «сверхслучайное». Вероятность четырех- или пятикратного выпадания монеты подряд одной стороной равна р4х = A/2L = 1/16 - 0,06250; ръх = A/2M = 1/32 = 0,03125, т. е. примерно 6,3 и 3,1%. Итак, когда о некотором обстоятельстве говорят, что со статистической надежностью 95% оно может рассматриваться как сверхслучайное, то это означает: его случайное появление столь же невероятно, как и событие, состоящее в выпадании герба подряд 5 раз. Вероятность того, что при га-кратном бросании монеты каждый раз будет выпадать герб, равна A/2)" и приведена в табл. 26. Если проводится испытание при вероятности ошибки, например, 5% (уровень значимости а = 0,05) с целью установления различия совокупностей, то при превышении этого уровня нулевая гипотеза отклоняется и принимается альтернативная гипотеза: генеральные совокупности различаются. Различие называется значимым, или надежным, на уровне 5%, т. е. правильная нуль-гипотеза будет отклонена только в 5% всех случаев или различие, наблюдаемое по выборкам данного объема, будет следствием чисто случайного процесса настолько редко, насколько это задано уровнем значимости: а) иначе, данные не могут появиться, если имеют место чисто случайные процессы, или б) можно принять, что имеющееся различие основано не только на случайности процесса, но и на различии генеральных совокупностей. Выборочные результаты могут привести только к двум возможным утверждениям: ill Таблица 26. Вероятность Р того, что при м-кратном бросании монеты каждый раз ока выпадает одной и той же стороной, как модель случайного события п 1 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 2 4 8 16 ' 32 64 128 256 512 1024 2048 4096 8192 16384 32768 0,50000 0,25000 0,12500 0,06250 0,03125 0,01562 0,00781 0,00391 0,00195 0,00098 0,С0049 0,00024 0,00012 0,00006 0,00003 р Уровень <ю% <5% <1% <0,5% «0,1% ^0,05% <0,01%
1) решению о подтверждении или отклонении нуль-гипотезы; 2) указанию доверительного интервала. Сравнение двух или большего числа доверительных интервалов приводит снова к проверке, является ли найденная разность случайной или не случайной (значимой). Нуль-гипотезы и альтернативные гипотезы образуют сеть, которую мы забрасываем, чтобы поймать в нее «мир», упорядочить его, объяснить и в будущем овладеть им. Наука делает ячейки сети все меньше, с тем чтобы всеми средствами своего логико-математического и технико- экспериментального аппарата постоянно выдвигать и проверять все новые нуль-гипотезы и альтернативные гипотезы, наиболее просто и наиболее правдоподобно объясняющие этот мир. Получающиеся при . этом выводы и заключения никогда не будут обладать абсолютной надежностью, но они ведут от предварительных гипотез ко все более общим и строгим теориям, выдерживающим тщательную проверку, приводят к научному прогрессу и все лучшему познанию мира. Цель науки — максимальное число эмпирических фактов объяснить минимальным числом гипотез и теорий и затем снова их проверить. Собственно творчеством здесь является выдвижение гипотез. Вначале они представляют собой только лишь допущения, обобщения эмпирических данных большей или меньшей степени достоверности. Если гипотезы допускают упорядочение по рангам и между ними возникают дедуктивные соотношения, т. е. из более общей следуют частные гипотезы, то этим уже двигается теория. Установление теоретических законов и объединение отдельных теорий в научную картину мира является дальнейшей целью научного прогресса. Примечание. Случайный статистически значимый результат Понятие вероятности ошибки предполагает, что среди большого числа выборок из одной и той же генеральной совокупности могут быть чисто случайные выборки. Вероятность получить при ограниченном числе опытов п случайный стати» стически значимый результат можно определить с помощью разложения бинома (а + A — а))п- Если вероятность ошибки принять равной 0,01, для двух одинаковых опытов имеем (из школы известно, что (а + ЬJ = а2 + 2 аЬ + Ь2): @,01 + 0,99J = 0,012 + 2 . 0,01 • 0,99 + 0,992 = 0,0001 + 0,0198 +0,9801. Следовательно: 1) вероятность того, что при справедливости нуль-гипотезы оба опыта дадут неверный результат, чрезвычайно мала: Р = 0,0001; 2) вероятность того, что один из двух опытов дает неверный результат, равна Р = 0,0198, или —2% (Но справедлива); 3) с наибольшей вероятностью оба опыта дадут верный результат (Р = = 0,9801) (Но справедлива). Могут быть определены соответствующие значения вероятностей и при других вероятностях ошибки при трех и более опытах. В качестве упражнения рассчитаем вероятности при а = 0,05 и при трех опытах. Вспомним, что (а + bf = а3 + 3 аЧ + 3 ab2 + Ь3, и получим @,05 + 0,95K = 0,053 + 3 . 0,052 . 0,95 + 3 • 0,05 i 0,952 + 0,953 = = 0,000125 + 0,007125 + 0,135375 + 0,857375 = 1. Вероятность того, что при верной нуль-гипотезе один из трех опытов даст случайно неверный результат, равна примерно 14%! 112
1.4.3. РИСК I И РИСК II При проверке гипотез (по одному из критериев) возможны два ошибочных решения: 1) неправильное отклонение нуль-гипотезы: ошибка 1-го рода; 2) неправильное принятие нуль-гипотезы: ошибка 2-го рода, В то время как в действительности: A) нуль-гипотеза верна и B) нуль-гипотеза неверна, критерий может привести к двум ошибочным решениям: A) нуль-гипотеза отклоняется и принимается альтернативная гипотеза и B) нуль-гипотеза принимается. Четырем возможным случаям соответствуют следующие решения: Решение по критерию Но отклоняется Но принимается Природа Но верна Ошибка 1-го рода Правильное решение Hq неверна Правильное решение Ошибка 2-го рода Если, например, установлено, что новый медикамент лучше, хотя на самом деле он идентичен старому, то это ошибка 1-го рода; если из сравнения вытекает, что оба медикамента одинаковы, хотя на самом деле новый лучше, то имеет место ошибка 2-го рода. Вероятности, соответствующие обоим неверным решениям, называются риском I и риском II: риск /, маленькая вероятность отклонить верную нуль-гипотезу, очевидно, равен вероятности ошибки а; риск //, вероятность принять неверную нуль-гипотезу, обозначается р. Поскольку а больше нуля, при а = 0 нуль-гипотеза принималась бы всегда, то всегда есть риск ошибки. При заданных а и объеме выборки п значение Р будет тем больше, чем меньше принятое а. Если п может неограниченно расти, то а и Р могут быть как угодно малыми, т. е. принимать решения при очень малых значениях аир можно только при очень большом объеме выборки. При малом объеме выборки и малом а возможность установить фактически существующее различие мала: результат «статистически значимого различия нет» можно получить заранее. Смотря потому, какая из ошибок дороже, устанавливают в конкретном случае значения а и Р таким образом, чтобы критическая вероятность была ^0,01, а вторая вероятность ^0,10. Практически а устанавливают следующим образом при более дорогостоящих ошибках: 1-го рода а = 0,01, или а = 0,001; 2-го рода а = 0,05, или а = 0,10. Согласно [Wald, 1950] следует учитывать выгоды и потери, которые являются следствием ошибочных решений, включая расходы на испытания, и те, которые целиком зависят от вида и объема выборки. 113
Так, например, при изготовлении вакцины требуется предельная константа сыворотки. Не безупречные измерения должны быть обнаружены и исключены. Необоснованное принятие нуль-гипотезы «сыворотка в норме» означает опасную ошибку. При этом желательно и р также выбрать возможно меньшее, в то время как отбрасывание хороших результатов не принесет ничего, кроме дополнительных расходов, и в остальном не будет иметь никаких серьезных последствий (т. е. примерно а = 0,10). Предположим, что мы на основании очень большого числа опытов с монетой знаем вероятность л выпадания герба и говорим своему товарищу, что эта вероятность равна или 0,4, или 0,5. Наш друг решает провести испытания при нулевой гипотезе п = = 0,5. План испытания: монета бросается п = 1000 раз. Если п = 0,5, то герб выпадает примерно в 500 случаях. При справедливости альтернативной гипотезы следует ожидать выпадания герба примерно в 400 случаях. Он принимает следующий способ решения: если событие «выпадание герба» наступает меньше чем 450 раз, то нуль-гипотеза л = 0,5 отклоняется и принимается альтернативная гипотеза я = 0,4. Если, наоборот, это число больше 450, то принимается нулевая гипотеза. Ошибка 1-го рода — отклонение правильной нуль-гипотезы — появляется тогда, когда на самом деле зх —0,5, но в данной серии испытаний получилось меньше 450 выпаданий герба. Ошибка 2-го рода наступит тогда, когда фактически п = 0,4, а при испытаниях получилось больше 450 выпаданий герба. В этом примере риск I и риск II выбраны примерно равными (ср. значения npq, равные в первом случае 250, а во втором — 240). Однако можно при данном объеме выборки п, увеличивая область принятия нуль-гипотезы, уменьшить ошибку 1-го рода. Пусть, например, нуль-гипотеза п = 0,5 отклоняется только тогда, когда герб выпадает меньше 430 раз. При этом, если объем выборки п постоянен, ошибка 2-го рода — принятие неверной нуль-гипотезы — увеличивается. При а = р между нуль-гипотезой и альтернативной гипотезой появляется симметрия. Нередко тщательно выбирают только значение а, не обращая внимания на симметрию между нуль-гипотезой и альтер* нативной гипотезой, и ставят, таким образом, нуль-гипотезу в особое положение. Так, некоторые статистические методы с заранее заданным значением а и неопределенным значением р заведомо благоприятны для нуль-гипотезы; их называют поэтому консервативными критериями. По правилу Неймана заранее задаются значением а и пытаются сделать р возможно меньшим. Предполагается, что известна важная характеристика критерия, так называемая кривая мощности критерия, или функция мощности, на которой мы остановимся позднее (с. 122—123). В дальнейшем стоит задержаться на разнице между статистической значимостью и «практической» значимостью: практически значимое различие должно обнаружиться уже по выборке небольшого объема. 114
Высшим судьей истинности знаний является опыт. Он состоит в том, что мы наши действия, поступки и их следствия храним в памяти. Основное условие того, что опыт возможен, — существование мира с отклоняемыми нуль-гипотезами. Можно выделить две различные стратегии: «первооткрывателя» и «критика». «Первооткрыватель» хочет отвергнуть нуль-гипотезу, он поэтому предполагает большой риск I и маленький риск II. Для «критика» справедливо обратное. Он с малым риском принимает неверную альтернативную гипотезу и с большим риском сохраняет ошибочную нуль-гипотезу. Науке требуются, как правило, люди с относительно большим риском I, скорее, первооткрыватели, чем критики. 1.4.4. УРОВЕНЬ ЗНАЧИМОСТИ И ГИПОТЕЗЫ УСТАНАВЛИВАЮТСЯ ПО ВОЗМОЖНОСТИ ПЕРЕД ПОЛУЧЕНИЕМ ДАННЫХ Представители математической статистики подчеркивают, что уровень значимости, безусловно, следует устанавливать перед получением данных. Это требование для практики иногда является некоторой головоломкой. Макнимар [McNemar, 1962] обсуждает две другие возможности. Нуль-гипотезу можно: а) отклонить, когда Р<С0,01, или принять, когда Р>0,10, и б) воздержаться от заключения, если 0,01 <Р< <0,10, и повторить эксперименты для получения большего числа данных. В противоположность этому грубому методу можно задавать просто полученный уровень значимости, например: разница надежна с Р = 0,04, или на 4%-ном уровне, и читателю представляется решать, достаточно ли для него этого высказывания и можно ли произвести оценку или принять решение на этом уровне значимости. Когда вероятность ошибки заранее не задана, в качестве наилучшей предлагается следующая процедура: обычно называют Р > 0,05 (или Р >0,1) как статистически незначимую. Для Р — 0,05 даются критические 5, 1 и 0,1%-ные границы; границы, между которыми находится Р, отмечаются следующим образом: [*] 0,05 >Р> 0,01 [**] 0,01 >Р> 0,001: [***] Р< 0,001. Целесообразно перед статистическим анализом сформулировать все те гипотезы, которые существенны, доступны для нас и могут быть проверены с помощью соответствующих критериев. После этого числовой материал должен быть подвергнут тщательному анализу, но он не должен служить основанием для выдвижения других гипотез, проверяемых на нем же. Такие гипотезы (из статистического материала) должны выдвигаться с весьма большой осторожностью, и их следует дополнительно проверять, поскольку каждая группа чисел имеет свой случайный экстремум. Риск ошибки в этом случае больше, чем тогда, когда гипотеза выдвигается заранее* Гипотезы, полученные из статистического материала, могут быть полезными в качестве новых гипотез для последующих проверок! 115
1.4.5. СТАТИСТИЧЕСКИЙ КРИТЕРИЙ Следующая прелестная история принадлежит Р. А. Фишеру [R. A. Fischer, 1960]. В некоторой компании дама X утверждала, что если ей предлагают чашку чая, в который добавлено немного молока, то она обычно без ошибки может сказать, что в чашку наливали первым — молоко или чай. Как проверить это утверждение? Ненадежный способ проверки таков: предлагаются две совершенно одинаковые чашки; в первую вначале налито молоко, а затем чай (МЧ), а в другую—наоборот (ЧМ). Если их предложить даме, то она имеет 50%-ный шанс ответить правильно, даже если ее утверждение неверно. Лучше следующая процедура: из восьми одинаковых чашек четыре наполнить в последовательности МЧ, а четыре — ЧМ. Чашки расположить на столе случайным образом, затем пригласить даму и сообщить ей задачу: из четырех МЧ- и четырех ЧМ-чашек найти 4 чашки ЧМ. Теперь вероятность ответить правильно, не имея специальных данных, становится очень малой. Из восьми чашек можно выбрать Я V А г> 4 чашки ^ ' ' = 70 способами и только один из них правильный. Вероятность случайно выбрать правильную комбинацию равна 1/70= = 0,0143, или примерно 1,4%. Если дама действительно выберет правильно все 4 чашки, то нулевая гипотеза — дама X не обладает особыми способностями — будет отброшена и эти особые ^способности будут подтверждены. При этом вероятность ошибки^равна 1,4%. Естественно, что эту вероятность можно еще уменьшить, увеличивая число контрольных чашек (например, при 12 чашках вероятность ошибки а~0,1%). Для нашей процедуры характерно следующее: мы выдвигаем вначале нуль-гипотезу и отвергаем ее только тогда, когда наступает событие, невероятное в предположении справедливости нуль-гипотезы. Если мы выдвигаем гипотезу, которую хотим проверить статистическими методами, то нас интересует, отвергает или""нет нуль-гипотезу данная выборка. В'примере с чашками чая мы отбрасываем нуль-гипотезу, когда дама все 4 чашки указала правильно. Во всех других случаях'мы бы приняли нуль-гипотезу. Мы должны принимать решение при любой другой выборке. В примере было бы оправдано решение отбросить нуль-гипотезу, когда дама по крайней мере 3 чашки определит правильно. Подробнее о «чай- критерии» можно посмотреть в [Neyman, 1950] и [Gridgeman, I960]. Для того чтобы избежать необходимости^все возможные решения получить заранее, пользуются методами, которые такие решения дают непосредственно. Метод, который для каждой выборки определяет, удовлетворяет ли она гипотезе или нет, называется статистическим критерием. Стандартные критерии в статистике характерны тем, что они в известном смысле оптимальны. Многие критерии предполагают, что наблюдения независимы, как это было'при случайной выборке. Большинство статистических критериев используют статистику. Такая статистика есть предписание (правило), по которому по данной 116
выборке находится число. Тогда критерий состоит в том, что решение принимается согласно этой статистике. Пусть например х — нормально распределенная случайная переменная. При известном стандартном отклонении а выдвигается нуль- гипотеза \i = Но (или и — jx0 = 0), т. е. среднее значение и генеральной совокупости, оцениваемое на основании случайной выборки, не отличается от желаемого значения \х0. Альтернативная гипотеза противоположна нуль-гипотезе, т. е. jx Ф fx0 (или \х — fx0 =7^= 0). В качестве статистики используем ±=L?*. f n=z, A.122) а где п — объем выборки. Согласно теории г распределена по стандартному нормальному закону, т. е. имеет нулевое среднее значение. Статистика, зависящая от выборки, больше или меньше отличается от нуля. В качестве меры отклонения примем абсолютное значение \z\. По принятому уровню значимости а теперь можно определить такое критическое значение г, что при верной нуль-гипотезе справедливо Р(|г|>г) = а. A.123) Если статистика г, рассчитанная по выборке, удовлетворяет неравенству \z\ < г (например, для а = 0,01 имеем z = 2,58), то принимают, что отклонение гот 0 можно рассматривать как случайное. В этом случае говорят, что нуль-гипотеза не отвергается на основании выборки или что нет оснований для отклонений нуль-гипотезы. В дальнейшем мы будем использовать уровень значимости в процентах, который соответствует вероятности а (например, а = 0,01; а% = 0,01-100% = 1%). Если \г\ ^ z (например, \z\ > 2,58 при 1%-ном уровне), то при справедливой нуль-гипотезе такое отклонение возможно, но маловероятно, и поэтому считают более вероятным, что нуль-гипотеза неверна, и ее отклоняют на уровне а%. В дальнейшем мы будем изучать и другие статистики и для всех них верно: принятое распределение статистики только тогда справедливо, когда справедлива нуль-гипотеза (см. также [Zahlen, 1966] и [Calot, 1967]). Пример Дано: цо = 25,0; о0 = 6,0; п = 36; 1с = 23,2; Нс: |i - Но (На : [л ф Но); « = 0,05 E = 0,95); ,g|= 128,2-26,011 Так как \z\ = 1,80 < 1,96 = zM5, нуль-гипотеза (равенство средних) подтверждается (Р>0,05).' Неотклоненная нуль-гипотеза принимается в качестве рабочей гипотезы, так как она может быть правильной и не противоречит мате- 117
риалу наблюдений. Более важно, чем правильность нуль-гипотезы, то, что нет достаточного статистического материала для ее отклонения. Если материал дополнен, то получается новая перепроверка нуль гипотезы. Она будет приниматься до тех пор, пока новые данные не сделают ее неприемлемой. Пример _ Дано: fx0 = 25,0; <г0 = 6,0; п == 49; 1с - 23,1; Но: Ц = ^о (На : |i ф Щ»); а - 0,05 (S - 0,95); Гг|д 123,1-25,01 /49 = 2,22. Так как \z\ = 2,22 > 1,96 = z005, нуль-гипотеза отклоняется на 5%-ном уровне (со статистической' надежностью 95%; Р < 0,05). Зачастую нелегко решить, какое количество данных необходимо для перепроверки нуль-гипотезы; так, при достаточно большом объеме выборки можно отклонить почти все нуль-гипотезы (в разделе 3.1 приведены некоторые формулы для выбора достаточного объема выборки). Теория критериев была развита после 1930 г. Е. С. Пирсоном и Дж. Нейманом (см. [Neyman, 1942, 1950]). В_иды статистических критериев Ёслй~мы "имеем одну гипотезу, нуль-гипотезу, как в примере с чаем, то используемый критерий проверяет только, не нужно ли эту гипотезу отклонить; в этом случае говорят о критерии значимости. Критерии, которые служат для проверки гипотез о параметре (например, нуль-гипотеза \х = |х0), называют параметрическими критериями, ^Критерий согласия проверяет, согласуется ли наблюдаемое распределение с гипотетическим. Особую роль играет проверка на нормальность признака, поскольку многие критерии эту нормальность предполагают. >/ Когда критерий не использует предположения о распределении, то его называют непараметрическим критерием. Критерии согласия относятся к непараметрическим критериям. Мы видим теперь, что оптимальные критерии должны быть нечувствительны к отклонениям от сделанных предположений (например, о нормальности распределения), но чувствительны по отношению к контролируемым отклонениям от нуль-гипотезы. Стохастика Преодоление нейтральной полосы между реальным и символическим миром, между эмпирическим распределением определенного признака и соответствующей моделью, играет в статистике большую роль. Существенны предположения о выборах, которые вероятны на основании принятой модели. Индуктивно выведенным от случайной выборки (т. е. выборки, которая может получиться случайным образом из генеральной совокупности и является для нее репрезентативной) к соответствующей генеральной совокупности заключениям противопоставляется теория вероятностей, которая переносит дедуктивно выведенные заключения из 118
генеральной совокупности модели на свойства случайной выборки. Особая связь между статистикой и теорией вероятностей называется стохастикой (от греч. axo^os — предположение; см. [Geppert, 1958]). Статистика индумтибная СТОХДСТИКД дедуитибная Теория бероятностей Индуктивная статистика имеет две задачи: 1) оценка неизвестного параметра генеральной совокупности с построением доверительных интервалов (методы оценивания); 2) проверка гипотез о генеральной совокупности (методы проверки гипотез). Чем больше известно о свойствах генеральной совокупности на основе метода максимального правдоподобия или хотя бы на основе груг бых оценок из предыдущих опытов, тем точнее будет вероятностная модель и тем более точные результаты будут давать методы оценивания и проверки гипотез. Для научного метода весьма важно объединение индуктивного и дедуктивного процессов; индукция занимается созданием моделей на основе эмпирических наблюдений, их проверкой и улучшением. Задачей дедукции является выбор лучших способов вычисления оценок параметров генеральной совокупности и определение статистических распределений этих оценок для случайных выборок. 1.4.6. ОДНОСТОРОННИЕ И ДВУСТОРОННИЕ КРИТЕРИИ Если цель опыта состоит в том, чтобы установить различие двух генеральных совокупностей, соответствующих различным условиям, то, как правило, неизвестен знак предполагаемого различия обоих параметров, скажем, средних значений двух последовательных измерений. Нуль-гипотеза: оба средних значения относятся к одной и той же генеральной совокупности ([хх = |i2); наша цель — показать несостоятельность этой гипотезы. Поскольку неизвестно, какой из параметров имеет большее значение, то альтернативная гипотеза: оба средних значения относятся к различным генеральным совокупностям. Иногда основная гипотеза позволяет высказать определенное предположение о знаке ожидаемого различия: среднее значение генеральной совокупности I больше, чем среднее значение генеральной совокупности II [хх > \х2, или, наоборот: ^ < (ы2. В обоих случаях мы должны те отклонения, которые не фиксирует альтернативная гипотеза, отнести к нуль-гипотезе. Если альтернативная гипотеза гласит \хг > щ, то соответствующая нуль-гипотеза \ix ^ |i2. Альтернативная гипотеза: |хх < fx2 соответствует нуль-гипотезе \1г ^ \i2. Если альтернативная гипотеза jxx Ф fx2, то мы говорим о двусторонней альтернативной гипотезе, так как при отклонении нуль-гипотезы 119
(Mi == №2) и Mi > P4> и ^ < [i2 рассматриваются как возможные исходы. Говорят о двусторонней постановке задачи и о двустороннем критерии. При односторонней постановке вопроса — один параметр больше, чем другой, — альтернативной гипотезе |хх > \х2 противостоит нуль-гипотеза \ix ^ |л2 (или \ix < (х2 против \ix >> jli2). Когда знак предполагаемого различия двух параметров (например, средних значений) известен, тогда статистический анализ проводят с использованием односторонних критериев. Если знают, что нуль- гипотезе я = я0 (например, одинаковый эффект от применения двух лекарств) можно на основе предыдущих исследований противопоставить альтернативную гипотезу я < я0 (новое лекарство хуже, чем старое), то следует предпочесть односторонний критерий (я > я0) двустороннему критерию (я Ф я0), потому что первый обладает большой мощностью и чаще будет давать правильный ответ. Если заранее трудно решить, какой применять критерий, то следует применять двусторонний критерий. 1.4.7. МОЩНОСТЬ КРИТЕРИЯ При анализе решений следует иметь в виду два возможных типа ошибок — ошибки первого и второго рода. Зависимость между ними показана на рис. 21. Два выборочных распределения некоторой статистики представлены двумя нормальными кривыми: левая представляет нуль-гипотезу (Яо), правая — одно- Нп спрабедлибо /~\ /Щ\ Нд справедлиба ' х /мщностК Sv г Рис- 21. Мощность ^ критерия. критическое значение^ статистики Ts стороннюю альтернативную гипотезу (На)- Если мы получаем на основании некоторого решающего правила критическое значение статистики, то в зависимости от положения эмпирической статистики, определенной на основании выборки, возможны два решения. Если это значение статистики достигает или превосходит критическое значение, то нуль-гипотеза отклоняется, т. е. принимается альтернативная гипотеза. Если критическое значение не достигается статистикой, то нет оснований для отклонения нуль-гипотезы, т. е. она подтверждается. На рис. 22 показано, что в зависимости от положения критического значения статистики при постоянном расстоянии между средними значениями статистик для Яо (Тв1) и На (Ts2) с уменьшением вероятности ошибки а значение р, риска II, растет. Риск II, вероятность р принять неверную нуль-гипотезу, зависит: 1) от объема выборки п: чем больше выборка, тем надежнее при данном уровне значимости а (риск 1) будет установлено различие между двумя генеральными совокупностями; 120
2) от степени различия, например, расстояния между центрами генеральных совокупностей; 3) от свойства критериев, которое называют мощностью критерия (power). Мощность критерия тем больше: а) чем больше информации в данных, используемых в критерии. Представим уровни информации в виде ряда: частоты, упорядочения и статистики (см. также с. 126—127 и 261—264). [Частоты представляют собой простейшую ступень в измерении признака: вычисляется, сколько индивидуумов в выборке или нескольких выборках обладают (или не обладают) признаком или несколькими признаками. Упорядочения — ранговая нумерация измеряемых значений и качественное упорядочение наблюдений, как, например, плохой, ..., очень хороший]; б) чем больше предположений сделано о распределении значений: критерий, требующий нормальности распределения и однородности дисперсии, как правило, существенно мощнее критерия, не требующего этих предположений. Мощность критерия есть вероятность отклонить Яо, когда верна гипотеза НА. Мощность критерия = Р (решение отклонить Н0\На верно) = ^ J— Р> A.124) Чем меньше при заданном а вероятность |3, тем лучше критерий разделяет гипотезы #0 и На* Критерий называется мощным {powerful), когда он по сравнению с другими возможными критериями при заданном а показывает относительно более высокую дискриминирующую способность (способность к разделению гипотез). Hq 6 этой области И/1 6 этой области не отклоняется не отклоняется Но принимается принимается Критическое значение статистики Ts Рис. 22. Критическое значение статистики в зависимости от а (и от р (об ошибке 2-го рода следует еще сделать замечание, что она может быть уменьшена с помощью рандомизации)). 121
Подробно об этом см. [Cohen, 1969], а также [Lehmann, 1958] и [Clea- ry, Linn, 1969]. Во всех случаях мощность критерия увеличивается только при увеличении объема выборки. Следует напомнить, что имеется в виду случайная выборка с независимыми наблюдениями (см. также с. 347-348). Но принимается Нд принимается принимается л/г Критическое значение статистики Ts Рис. 23. Зависимость мощности критерия от применения одно- или двусторонних доверительных интервалов. Сравнение мощности критериев проводится с использованием асимптотической эффективности (asimptotic relative efficiency, Pitman efficiency, см. с 125 и 270). При переходе от одностороннего к двустороннему критерию мощность его уменьшается. Это показано на рис. 23: «треугольник» а делится пополам, критическое Т6 -значение смещается вправо, увеличивается р, и мощость критерия уменьшается. При равных объемах выборки односторонний критерий всегда мощнее, чем двусторонний. Приведенные на рис. 24 весьма схематичные кривые мощности критерия показывают зависимость мощности критерия от разности между двумя средними значениями. Критерий при заданной разнице между выборками тем мощнее, чем больше п и больше а. Для а область изменения невелика, потому что это ведет к увеличению риска 1, и поэтому редко а берут больше 5%: 1) если между средними значениями генеральных совокупностей нет различия, то мы отклоним верную нулевую гипотезу только в а% случаев (при уровне а%): вероятность отклонения равна риску I; Вероятность ошибочно отклонять нуль- гипотезу -1,0- Рис. 24. Кривые мощности критерия (функции качества) для различных условий при двустороннем критерии; средняя ордината даст для обеих кривых значения вероятности ошибки (а«0,01 или а«0,03); с возрастанием а и п кривая приближается к оси симметрии (оси ординат); все схематизировано. 122
2) если между средними значениями есть различие 1,5а0, то более мощный критерий, соответствующий более крутой кривой на рис. 24, укажет эту разницу в 80% случаев (мощность критерия = 0,8); более слабый критерий, отображаемый пологой кривой, эту разницу укажет только в 30% случаев (мощность критерия = 0,3); 3) если между средними значениями имеется очень большая разница, то мощность обоих критериев равна 1. Итак, мы установили, что при двустороннем критерии увеличению разности \i — |ы0 соответствует увеличение вероятности отклонить нуль-гипотезу, а с увеличением уровня значимости или объема выборки эта вероятность падает. Мы установили также, что для достижения хорошей мощности критерия следует максимально возможно увеличивать объем выборки. Если объем выборки мал, то нужно брать уровень значимости не слишком малым, так как и малая выборка, и малый уровень значимости приводят к нежелательному уменьшению мощности критерия. Односторонний критерий, как мы видели, имеет большую мощность, чем двусторонний. Поскольку односторонний критерий лучше устанавливает наличие разницы в совокупностях данных, чем двусторонний, следует всегда предпочитать одностороннюю альтернативную гипотезу (если другая ее часть для нас незначима или неинтересна). Если, например, сравниваются новый и старый, широко применяемый, методы лечения, то интерес представляет вопрос: лучше ли новый метод? Если новый метод немного хуже или такой же, как прежний, то нет оснований отказываться от старого метода» Если же сравниваются два новых метода, то применим только двусторонний критерий, поскольку односторонний почти нечувствителен к другой, или «неправильной», альтернативной гипотезе. Непараметрические критерии (в особенности быстрые критерии) по отношению к параметрическим критериям имеют меньшую мощность. При использовании непараметрических критериев в случаях нормального или равномерного распределения платой является увеличение ошибок 2-го рода. Статистические решения становятся тогда консервативными, нулевая гипотеза дольше «держится», и для' ее отклонения необходим большой объем выборки. Если, как обычно, имеется малая выборка, то непараметрические критерии часто эффективнее некоторых оптимальных параметрических критериев. Если для анализа имеются несколько критериев, то обычно выбирают те, которые наиболее полно используют информацию, содержащуюся в статистических данных. Конечно, желательно, чтобы основные предпосылки в статистической модели, проверяемой с помощью критерия, соответствовали экспериментальным данным. Если предпосылки выполняются только частично, то это надо соответствующим образом учитывать при интерпретации полученных результатов. Полезная рекомендация: указывать те предпосылки, выполнение которых негарантированно. Например: «В предположении, что обе выборки относятся к нормально распределенным генеральным совокупностям, имеем ...». 123
Следует учесть еще одно предостережение. Перепроверка критерия недопустима. Применение почти исключительно односторонних критериев и выбор критериев на основе уже полученных результатов приводят к тому, что фактическая вероятность ошибки иногда больше чем вдвое превосходит заданную вероятность [Walter, 1964]. Оперативная характеристика Рис. 24 показывает зависимость мощности критерия от разности средних значений, заданных в единицах стандартного отклонения (\i — цУ^о), функцию мощности критерия (power function). Ее дополнение (до единицы), вероятность принять неверную нуль- гипотезу, т. е. ошибка 2-го рода, называется оперативной характеристикой ОХ, ОХ-кривой (operating characteristic curve), или линией приемки; качественное определение: Оперативная характеристика = 1 — функция мощности. A.125) ОХ-кривая при двустороннем критерии представляет собой куполообразное дополнение к обратной куполообразной кривой мощности. Мы теперь для характеристики критерия можем указывать только одну из двух функций и, например, на основе ОХ для заданных риска I и п определить неизбежный риск II решения о выборе между нуль- гипотезой и альтернативной гипотезой. Когда для заданного риска I и при малом риске II объем выборки, необходимый для определения разности А, становится слишком большим, нужно увеличивать риск I (табл. 52а содержит пример определения объема выборки для сравнения двух средних по Стьюденту при заданных риске I, риске II и А). Иногда, конечно, можно применять более мощный критерий. При равном объеме выборки ОХ тогда круче и разница устанавливается надежнее. Если испытание закончено, то ОХ показывает, каков шанс определить разницу А. Если при малом объеме выборки принят слишком малый риск I, то следует ожидать большого риска II и при принятии нуль-гипотезы надо помнить об осторожности, так как отчетливо установить различие при этих условиях едва ли возможно. Большое значение имеет ОХ для определения выборочного плана при контроле качества, в особенности при приемочных испытаниях. Примеры построения ОХ-кривых приведены в [Bunt, 1962] и [Ya- mane, 1964]. ОХ-кривые для важнейших критериев содержатся в [Ferris и др., 1946] и особенно в [Owen, 1962]; см. также [Liebscher, 1968], [Hodges, Lehmann, 1968], а также [Могice, 1968]. Исчерпывающие таблицы приведены в [Cohen, 1969]. 1.4.8. НЕПАРАМЕТРИЧЕСКИЕ МЕТОДЫ Классические статистические методы обычно предполагают нормальность распределения, которая, однако, строго говоря, никогда не удовлетворяется, так что любое приложение этих методов оставляет ощущение опасности ошибки. По этой причине развитие непараметри- 124
ческих методов, которые не предполагают нормального распределения, вызывает неослабевающий интерес. Эти критерии не требуют никакого предположения о виде распределения, если вероятно или по крайней мере правдоподобно, что сравниваемые выборки принадлежат к одной и той же генеральной совокупности [Walter, 1964], что они могут рассматриваться как однородные [Lubin, 1962]. Непараметрические методы, как правило, очень просты в использовании. Их преимущество состоит в том, что практически не требуется почти никаких знаний о функции распределения генеральной совокупности. Кроме того, эти методы могут использовать качественную информацию и упорядоченные по рангам данные. Классическое сравнение средних «по Стьюденту», например, основано на следующих предположениях: 1) независимость наблюдений (случайная выборка!); 2) признаки должны быть измеримы в единицах метрической шкалы (например, системы МКС); 3) генеральная совокупность должна быть (по крайней мере приближенно) нормально распределенной; 4) дисперсии должны быть равны (о\ = ai). Непараметрические методы, соответствующие критерию Стьюден- та, требуют только независимости данных. Являются ли данные наблюдений взаимно независимыми, устанавливается из способа их получения. Итак, практически единственное предположение состоит в том, что все данные или пары данных выбраны случайным образом и независимо друг от друга из одной и той же генеральной совокупности; это должно соответствовать самому виду эксперимента и его проведению. Поскольку непараметрический критерий, когда его применяют на нормальном распределении, всегда слабее, чем соответствующий параметрический критерий, используется показатель Еп (по [Pitman, 1949]): П п для параметрического критерия /1 1ОЛ\ Ln— , (l.lzoj п для непараметрического критерия который называют «эффективностью» непараметрического критерия. При этом под п подразумевают объем выборки, необходимый для получения заданной мощности критерия. Понятие асимптотической эффективности применяется для случая бесконечно большой выборки нормально распределенной случайной величины. По этому показателю определяют действительность критерия, когда он применяется вместо классического критерия на совокупности нормально распределенных данных. Асимптотическая эффективность Е = 0,95 — например, для {/-критерия — означает: если при использовании непараметрического критерия в среднем требуется выборка с п = 100 для определенного уровня зависимости, то в случае соответствующего параметрического критерия было бы достаточно п = 95 (подробнее об этом см. [Bradley, 1968]). Непараметрические методы предполагают случайную выборку из генеральной совокупности с непрерывным распределением. Они рекомендуются к применению тогда, когда
а) параметрические методы слишком чувствительны к отклонениям от сделанных допущений или б) когда удовлетворение этим допущениям с помощью соответствующих преобразований (Ь^ или с помощью устранения выбросов (Ь2) представляет значительные трудности. Непараметрические методы, которые отличаются относительно простыми вычислениями, называют также быстрыми. Другим важным свойством непараметрических критериев, кроме экономичной вычислительной процедуры, является применимость без предварительных допущений. Их недостаток — малая мощность, поскольку только часть информации, содержащаяся в данных, используется для принятия ста!истического решения! Статистические решения быстрых тестов консервативны, т. е. труднее отклонить нуль-гипотезу, чем при параметрических критериях, для этого требуется большая выборка или большее число противоречащих альтернативных данных. Указания к применению непараметрических быстрых критериев (по [Lienert, 1962]): 1. Важнейшим применением непараметрических тестов является приближенная проверка значимости для параметрических и непараметрических методов. При этом определяют, выгодно ли вообще проводить проверку значимости с помощью оптимального критерия. Для решения по быстрому критерию есть три возможности: а) результат может быть отчетливо значимым, проверка по более сильному критерию не нужна, так как цель проверки может быть достигнута и с помощью более слабого критерия; б) результат может быть абсолютно незначимым, т. е. никакую значимость определить не удается; в этом случае проверка с помощью более сильного критерия также ни к чему; в) результат может быть слабо значимым, но иметь тенденцию к значимости; в этом, и только в этом, случае последующая проверка с помощью оптимальных критериев возможна, хотя, строго говоря, недопустима (см. предостережение на с. 124). * 2. Другой областью применения непараметрических критериев является суждение о значимости данных, полученных в предварительных опытах. Результаты предварительных опытов должны быть хорошо обоснованы, если последующие главные испытания призваны обеспечить надежные выводы. 3. И наконец, непараметрические критерии могут применяться для получения обоснованного вывода там, где имеется достаточно большая выборка измерений, т. е. объем выборки п > 100. Эта рекомендация основана на том, что при больших п даже слабый критерий должен указать на наличие значимости, когда результат не только статистически, но и практически должен быть значимым. К этому следует добавить, что экономия в вычислениях здесь становится особенно значительной. Среди трех приведенных возможностей применения наибольшее значение имеет первая, так как здесь экономический эффект прояв- 126
ляется вдвойне: во-первых, приближенные методы проще и, во-вторых, вообще не нужно применять сложных и дорогостоящих критериев. Примечание. Системы мер Опрос о принадлежности к той или иной специальности не позволяет составить однозначные объективные последовательности. Классификации подобного вида, мы говорим о номинальной шкале, используются при упорядочении по полу, профессии, языку, национальности. Иногда требуется подобное упорядочение, когда, например, объекты исследования необходимо расположить в объективную последовательность по возрасту или какому-либо другому признаку, при которой, однако, интервалы по шкале рангов не соответствуют требуемым интервалам (например, по некоторой возрастной шкале могут стоять последовательно двадцатилетние, тридцатилетние и затем тридцатидвухлетние). Если интервалы постоянны, как в обычных измерениях температуры по Цельсию, то сравнение по этой интервальной шкале бессмысленно: некорректно утверждать, что 10° С вдвое теплее, чем 5° С. Лишь интервальная шкала с абсолютным нулем позволяет проводить осмысленные сравнения. Признаки, для которых возможно задание такого нуля, это, например, температура в градусах Кельвина, длина, вес и время. Шкалы такого вида называют шкалами отноше» ний. В то время как шкала отношений может быть переведена в другую умножением на положительную константу (например, 1 морская миля = 1,609347 км, т. е. у — ах), причем отношение двух упорядоченных наблюдений при умножении их на константу сохраняется, в интервальной шкале оно изменяется: Градусы Цельсия: 0 10 160 Градусы Фаренгейта: 32 50 212 Четыре вида шкал, выделенных Стивенсом [Stevens, 1946], можно упорядочить с помощью следующих понятий статистики: 1. Номинальная шкала (произвольная нумерация, например, автомобилей): названия и их частоты, %2-критерии, биномиальное и пуассоновское распределения и мода как мера положения. 2. Ранговая шкала: школьные отметки и подобные данные, которые допускают упорядочение по рангам; ранговые критерии, как [/-критерий, Я-критерий, ранговый дисперсионный анализ и ранговая корреляция, децили и медиана. 3) Интервальная шкала: температурные измерения в градусах Цельсия или Фаренгейта; типовые параметрические статистики, такие, как арифметическое среднее значение, стандартное отклонение, коэффициенты корреляции и регрессии, а также обычные статистические критерии, как /-критерий и F-критерий. 4. Относительная шкала (с истинным нулем): температурные измерения в градусах Кельвина, физические измерения в кг, м, с; к статистикам, перечисленным в п. 3, добавляются геометрическое и гармоническое среднее, а также коэффициент вариации. Существенно, что для данных, которым соответствуют номинальная или ранговая шкалы, могут быть применимы только непараметрические критерии, в то время как данные в интервальных и относительных шкалах можно анализировать как с параметрическими, так и с непараметрическими критериями. 1.4.9. ПРИНЦИПЫ СТАТИСТИЧЕСКИХ РЕШЕНИЙ Многие наши решения соответствуют философии минимакса Абрахама Вальда A902—1950). Согласно принципу минимакса (см. также [Neyman, 19281) выбирается то решение, которое приводит к миними зации максимальных потерь" в наихудшем случае. 127
Наименьшие возможные потери имеют решающее значение. Это оптимум при максимальной боязни риска, когда во всех случаях легко пренебрегают большими шансами. Только хронический пессимист обладает таким постоянством. С другой стороны, этот принцип «минимизирует» шансы на катастрофические потери. Минимаксер, следовательно, это тот, кто решает максимально хорошо защищаться против наихудших {минимума) ситуаций. По минимаксному критерию отвергается всякое решение, за которое можно угодить в тюрьму. Частные определения не полностью изобличенным преступникам — вот плата за эти методы. Без минимаксера не было бы и страхования: пусть предприятие стоимостью в 100 000 марок застраховано от огня; стоимость страховки 5000 марок; вероятность пожара составляет 1 %. Если мы хотим уменьшить потери, то сравним верные потери в 5000 марок с вероятными потерями 1%, т. е. 1000 марок. Однако истинные потери составят или ноль, или 100000 марок. Поэтому предпочитают наверняка терять, но только 5000 марок. Если застраховать не один объект, а много, скажем, речь идет о 80 кораблях большой пароходной компании, то может быть целесообразным страховать только отдельные корабли или вообще не страховать. Свободные от долгов объекты могут быть не застрахованы. Государство не страхует ничего. Полный жизни оптимист — в нашем определении «максимаксер» — выбрал бы решение, которое в наилучших условиях приводит к наилучшему результату, и вообще отказался бы от страховки, потому что пожар маловероятен. Максимальный критерий тогда обещает успех, когда при относительно малых потерях возможны большие выигрыши. «Максимаксер» играет на тотализаторе и в лото, потому что заведомо малые потери он может возместить крупным выигрышем. Этот принцип решения — учитывать только наибольший возможный выигрыш — введен Байесом A702—1761) и Лапласом A749—1827). Мы не можем здесь подробно останавливаться на этих принципах решения. Интересующийся и математически подготовленный читатель может эти и другие критерии найти в [Kramer, 1966], в специальной литературе ([Buhlmann и др., 1967], [Shsneeweis, 1967], [Bernard, 1968], [Cher- noff, Moses, 1959], [Weiss, 1961]), а также в библиографии [Wasser- man, Silander, 1964]). Важные частные случаи рассмотрены в [Raiffa, Schlaifer, 1961], [Ackoff, 1962], [Hall, 1962], [Fishburn, 1964], а также в [Theil, 1964]. От решений наука переходит к заключениям. Решения выглядят так: «мы решаем теперь, как будто бы». С ограничениями «как будто бы» и «теперь» мы говорим в особо правдоподобных случаях. «Наши лучшие» высказывания без упоминания о вероятности типа 6> 4. В противоположность этому заключения — максимы науки — выводятся при тщательном рассмотрении доказательств, полученных из специальных наблюдений и экспериментов. Если достаточные доказательства^ отсутствуют, то заключение отвергается. Заключение есть утверждение, которое распространяется на данные условия эксперимента или наблюдения до тех пор, пока оно не войдет в противоречие с необычно сильными доказательствами. 128
Это определение содержит три решающих пункта: оно подчеркивает слово «допущение» в прямом смысле этого слова; говорит о необычно сильных доказательствах и содержит возможность отклонить заключение в дальнейшем (см. [Tukey, I960]). #1.5. ТРИ ВАЖНЫХ РАСПРЕДЕЛЕНИЯ ВЫБОРОЧНЫХ СТАТИСТИК В этом разделе мы будем рассматривать распределения статистик. Статистики — это предписания, по которым из выборки рассчитывается число — значение статистики для данной выборки. Выборочное среднее, выборочная "дисперсия или отношение дисперсий двух выборок, все эти оценки или значения функции от выборки могут рассматриваться как статистики. Статистика — случайная переменная. Ее распределение вероятностей лежит в основе критериев, которые построены на этой статистике. Распределения статистик, функции от выборок нормально распределенной переменной называют поэтому также тест-распределениями. Вместо слова «статистика» используют выражение «тест-статистика» (teststatistic); cm [Haight, 1961]. 1.5.1. РАСПРЕДЕЛЕНИЕ СТЬЮДЕНТА В. С. Госсет A876—1937) в 1908 г. доказал (под псевдонимом «Стью- дент»), что распределение отношения разности между выборочным средним и средним значением генеральной совокупности к стандартной ошибке среднего значения генеральной совокупности Ошибка среднего значения Стандартная ошибка среднего значения af\/~n A.127) Рис. 25. Плотность вероятности нормального распределения и распределения Стьюдента при 3 степенях свободы (я=4). С уменьшением числа степеней свободы максимум распределения Стьюде,н- та уменьшается. В отличие от нормального распределения большие вероятности концентрируются на выбегах и меньшие — в центре. Нормальное распределение Распределение Стьюдента ' G7 = 4, !>=j; только тогда подчиняется нормальному закону, когда а является стандартным отклонением единичного значения от среднего значения генеральной совокупности. Зак. 930 129
t- 00 00 CN CO —ToTt^. ь- со ^сосо —« CN CD —• CO CN CD СОЮ CO CD^ rH CD t> CO CO < CD CD CN —i О CD 00 Г- ^ CD 00 rt< CO 00 CO CD Ю OO t4- t4^ CO CO СОЮЮ ЮЮ ЮЮЮ ^ *4f 0H0^0 —« OCN —• OlOCDCO CD—t CN 00 CO CO—< CD CD CD 00 *-ч —< СОЮ О "Ф 00 00 CD'' t>- t*-oo ~* о 00 00*-< CN "tf < 00 CN —« 00 00* Ю rt< СО Ю Ю Ю ^ СО Ю Ю CN СО О О CD CD 00 "^ ^t4 СО СО 00 оо оо t- i со со со со со СО СО CN—• oo"of ©~^ СОООЮ^ t- (ЛО00О05 00 CN t^ Ю СМ ^100<NN Tf CN СОЮ 00 OCfH0N COCO COO СЛ CO 00 TP »-• t-- t^ CO CD CO Ю UOCN О 00 СО Ю Ю Ю "^ tJ^ сосъсососо со со со со со I E I ^ О CD CD 00 СО СО* С СО CN t>- <5>ЪО С 00 О CD Ю1 ON'tCOC Gi CD Ю CN t*- CO О Ю —• t^- »-. ^н о О О) i-< оо оо—< CN O5 I4* CD O5 CX) 00 00 "^ CO CO COCO со со cococn CD CD cX) 00 00 CNCN*orCN*CN Ю —< О IN- h- т^ CO «-i О CD 00 00 00 00 N CN CN CN CN CN 3 Bf i CN CD^ «Ф OOC^JON 5 00 00 СО—* ?т}- CD CDCN Э—* CD 00 00 тН00 —i < со—" оо» h- t^ СГ < 00 00 00 О CN CN "-"• О О CD Ю Ю Ю Ю rr C CO CO CO CN CN <N CN CN CN CN CN CN CN CN CN CN CO CO CN CO OO00N CN r^ CO CN Ю COCN CD СЭ CD CO 00 CN CN CN CN CN CN 00—• CD ОЮ oTcnoTcn'cn' OOCO COCN—« О CD CNCNCNCNCN CD О ^ CD rh оГо^С^С^ГсМ I ^ О CO CN —* CN ЮСО CO O5 CO—* ЮСО ЮО CO О CD 00 00 00 CN COCN —< —* —• CD OO !>• CO COCO OtP CD Ю ««f ^ COCN 1 5 g оо со oo oo «>- оо со со о со сою CD О Ю t^ CO l> 3< v-ч CD 00 * аэ со 5Ю -н{ rf CO CO CO CN CO CO COCO CO Ю CO—' СП 00 CN CN CN —• —¦• со со со coco 5 (X I a. О СОЮ —i о —« со ^< O00NN -Г о* о* о o"o*o'4o"o'4 О^Ют^сМ ^OCDOOOO OCDCDCDCD CDO>000000 t^-CD CO CD cD CO CO CD CD CO ооооо ооооо Г^ CD CO Ю L ОО 00 00 ОО С СО СО СО СО С ооооо Ю CD h-00 СЛ Ю СО1>- 00 CD О^н CN СО т*« CN CN CN CN CN н 130
25 26 27 28 29 30 35 40 45 50 60 70 80 90 100 120 200 500 1000 со Число степеней свободы 0,684 0,684 0,684 0,683 0,683 0,683 0,682 0,681 0,680 0,679 0,679 0,678 0,678 0,677 0,677 0,677 0,676 0,675 0,675 0,675 0,25 1,316 1,315 1,314 1,313 1,311 1,310 1,306 1,303 1,301 1,299 1,296 1,294 1,292 1,291 1,290 1,289 1,286 1,283 1,282 1,282 0,10 1,708 1,706 1,703 1,701 1,699 1,697 1,690 1,684 1,679 1,676 1,671 1,667 1,664 1,662 1,660 1,658 1,653 1,648 1,646 1,645 0,05 г > 060 2,056 2,052 2,048 2,045 2,042 2,030 2,021 2,014 2,009 2,000 1,994 1,990 1,987 1,984 1,980 1,972 1,965 1,962 1,960 0,025 2,485 2,479 2,473 2,467 2,462 2,457 2,438 2,423 2,412 2,403 2,390 2,381 2,374 2,368 2,364 2,358 2,345 2,334 2,330 2,326 0,01 2,787 2,779 2,771 2,763 2,756 , 2,750 2,724 2,704 2,690 2,678 2,660 2,648 2,639 2,632 2,626 2,617 2,601 2,586 2,581 2,576 0,005 3,450 3,435 3,421 3,408 3,396 3,385 3,340 3,307 3,281 3,261 3,232 3,211 3,195 3,183 3,174 3,160 3,131 3,107 3,098 3,090 0,001 3,725 3,707 3,690 3,674 3,659 3,646 3,591 3,551 3,520 3,496 3,460 3,435 3,416 3,402 3,390 3,373 3,340 3,310 3,300 3,290 0,0005 4,619 4,587 4,558 4,530 4,506 4,482 4,389 4,321 4,269 4,228 4,169 4,127 4,096 4,072 4,053 4,025 3,970 3,922 3,906 3,891 0,00005 Источник: Fisher R. A. andYates F. Statistical Tables for Biological, Agricultural and Medical Research, Oliver and Boyd Ltd. Edinburgh A963), p. 46, Table III. Примечание. Для каждого вычисленного значения t, исходя из принятых вероятностей ошибки а, одно- или двустороннего крите- g рия и данного числа степеней свободы, находят табличное значение tCt значимо на <х%-ном уровне при условии f>/. Например, *"* t =2,00 для v = 60; двусторонний критерий значим на 5%-ном уровне, односторонний—на 2,5%-ном уровне.
132 CO CM t- t>- <M OO 00 CM тр Ю о coco ooo —" ~ —• ^ <N CO <M CM 00 CD "^f CO •—* OO Ю счГ^со^г^стГ CM CM CM CM CM CO CO CO CO CO Ю O —« CM <M CM b- 00 00 CO OOCNCOlO CO f Ф ^ ^ CO*— т}< OOO CO^CM CO CM О со* о"—Г'' ~ ooo t^.~« 00 "* О СО СМ ,-н ^ СМ СМ СМ rfCO t^- OO см см см см со о "Ф оо -* CM 00 "^ CO Г^- СО COCO CO CO см оо ю*-* со юг-- о—< см Ю—i CO CM 00 rj^O^LO О ^ ^H^Hr-4^ CM ^ 00*^ CO h- см см см см см 00 ^ Ю 00 •— см со со со со 00 ^ со'ю t^. сгГ—Г — CM -^ ^Cft CO о а> r^ rh »— CO Ю 00 ^ ^ CONOOO^ CM CM CM CO 00 IN СО СМ Г- СМ CM <f СО t-~ О 8J8S8 СО < Юс rf lOt4^ 00 O> 1С CO 00 050 о *—• см со ю CN CM CM CM CM — со oo со т^со ooo oooo см см со ю t*- oo l^ OOOJO-* 050—< CSJ CO CNtlflCON tJ« ЮСО In-оо 222см см см со со со со со со со со со со со со со со со CO h- 00O51^- ooco юсосм 00 4f ЮСО t4- ЮС0С0 схГстГстГо CM CO "^ Ю CO s I rHcO О "«f O^CO CO t*-CM O>00 00 0^00^00^^ CO 00^ ЮСО о оос СО t*- 00 ОО —Г см см со -^ I S о, I Ю ПОМО ЮСО t^ !>• 00 CO^O^OO^CO^r ooo '-Те ОС со —^ t ь- ooof- со Ю СМ 00 Ю СМ rf ЮЮСО Г>- СО О 1^ ОСМ Ю СООО00 1 а. Ои СЧ,' О СО OOCO *+'™t о ю»-^ оо оо О О СМ тР 00 о* о* о* о* о" Th OOO О Ю см со -* t^см — COCO—* О о юсмою СО t*- 00 00 О о ю г- <м *—< о о ю о* о* о* о* о" см 00 СМ СО О Ю «со со чСО СМ ^_^_С0<о 00 ^ О СО СМ ю*со*г^ t^- оо »-н СМ СО ""Ф Ю со t*- оо оо
Продолжение Число степеней свободы 22 24 26 28 30 35 40 50 60 80 100 120 150 200 0,99 9,54 10,86 12,20 13,56 14,95 18,51 22,16 29,71 37,48 53,54 70,06 86,92 112,7 156,4 0,975 10,98 12,40 13,84 15,31 16,79 20,57 24,43 32,36 40,48 57,15 74,22 91,57 118,0 162,7 0,95 12,34 13,85 15,38 16,93 18,49 22,46 26,51 34,76 43,19 60,39 77,93 95,70 122,7 168,3 0,90 14,04 15,66 17,29 18,94 20,60 24,8 29,05 37,69 46,46 64,28 82,36 100,62 128,3 ^ 174,8] 0,80 16,3 18,1 19,8 21,6 23,4 27,8 32,3 41,4 50,6 69,2 87,9 106,8 135,3 183,0 0,70 18,1 19,9 21,8 23,6 25,5 30,2 34,9 44,3 53,8 72,9 92,1 111,4 140,5 189,0 0,50 21,3 23,3 25,3 27,3 29,3 34,3 39,3 49,3 59,3 79,3 99,3 119,3 149,3 199,3 0,30 24,9 27,1 29,2 31,4 33,5 38,9 44,2 54,7 65,2 86,1 106,9 127,6 158,6 210,0 0,20 27,3 29,6 31,8 34,0 36,2 41,8 47,3 58,2 69,0 90,4 111,7 132,8 164,3 216,6 0,10 30,81 33,20 35,56 37,92 40,26 46,06 51,81 63,17 74,40 96,58 118,50 140,23 172,6 226,0 0,05 33,92 36,42 38,88 41,34 43,77 49,80 55,76 67,50 79,08 101,88 124,34 146,57 179,61 234,0 0,0025 36,78 39,36 41,92 44,46 46,98 53,20 59,34 71,42 83,30 106,63 129,56 152,21 185,8 241,1 0,01 40,29 42,98 45,64 48,28 50,89 57,34 63,69 76,15 88,38 112,33 135,81 158,95 193,2 249,4 0,001 48,27 51,18 54,05 56,89 59,70 66,62 73,40 86,66 99,61 124,84 149,45 173,62 209,3 267,5 Источник: Fisher R. A. and Yates F. Statistical Tables for Biological, Agricultural and Medical Research, Oliver and Boyd Ltd. EdinburghJ1963), p. 47, table IV. Примечание. P (%* > табличн. знач.) = а, что значит, например, для 4 степеней свободы Р (х"> 9,49) =>0,05, т. е.ха — значение, равное 9,49, или превышающее эту величину, для v =я 4 значимо на 5%-ном уровне. Односторонние критерии допустимы только для одной степени свободы. %2ОДн = 6,63 значимо на (а/2) 0,5%-ном уровне. Примеры можно взять в разделах 3.3, 3.4, 4.3, J3 4.6, 6.1 и 7.6.
осоачо сл ^5 со to — о со ос j c? сл 4^ со й — © со оо ^4 ста сл !2 со to — о со оо Ci о> сл ? со io — о со оо -а ст> сл 4* со to > ** sat "а ста ста СТа С> ста сл сл сл ¦а сл 4* Ю —о со оо а> СД СЛ СЛ СД СЛ 4^ 4^> 4*» »4^ 4*. 4>>4^4^4^СО СО СЛ4^С0Ю — СО ОО-«4 СТа 4* COtO —ООО ->J jO СОСОЬО tO tO ю — ооо-^стэ СЛ СО — О ОО СТа 4* СО — СО О 4*--4 О СО СТаОООЮФ'- -nj сл со — о СТа -*| Оо ер О 4Слса — оо ста 45ь — со ста 4^ — оослсо ооасооста со со Сл J СТа 4=» —>СО CTltO-^tO^ —4J--4COO ОООСТаСООО — Ю — СОСОСЛОСЛ О4^00СО00 -*4со — со > tOtOtO —— *-»—1-1 СО —00005 СЛСО — СО СТ> СО ел S сл я р I Z 43 п а •о I -vj-vj-v]-4«*4 СТастаСТаСТаста СТаОСТаСлел О»СЛСЛСЛСл СЛ4^4>4^4^ 4»-4^4^4^СО СОСОСОСОС СТа 45* СО tO — СО 00-4 СТа 4а» СО SO — СО 00 -^ СТа 4* СО Ю О СО 00 СТа СЛ 4^ Ю ^—О 00 ->4 СТ5 4^ СО t со to ©СО *—*СОСТа4>*Ю СО**^4»*ЮСО Оа4^»-*00СТа С0О--44*»1-* сл to со 4з> О ста — ста —' сл со со ста со to 4ь ста ^j оо со сл — с. . . ¦^4 СО — — < СЛСЛ 45" 4»- 4*. Ю —<O00 О) S O> to 00 4^- — юслчсоо СО 00 СО-4 tO — к> — сосл — CO4*> CO tOO 0 00 00 00 COtO — tO tO tO tO •—* i»-*n-»»—»•—*>—* 4^C0N3OC0 00 -sj CTS СЛ 4». aW— "со"со ^"ста'сл'со'Ц "— "< * ^° — со*ч ел со — (psi o\t 38888 ^—О 00-vICT>4*.C0 ЮО СоЪоЪ> оослкасосл to оо сл — ^4 bg ВSgSSJg 88588b gа«83 ооЪаУсо"»— "соЪо en 4^ to — сомлел 4^ ьооооспел со — со->4 сл "со"ю'оЪо'с& Ую'о'оо'о^ Ую'о'оо'сл "со*— '«oVi'oi "to'o'oo'crt'co >->^^.~>4^ -4ОС0СПС0 tO4^-<lCO- C0CD00CO— СО 4*> О> -^ СО CQ Q — NJ tO tO CO CO CO tO tO tQ — О СО ОО СТ) СЛ СО — CQ 5 S — СО СЛ О^ >— СО -Ч ,j СО СОСОСОСОСО COtOtOtOtO ,_ СО tO С^ СО СО *~4 СЛ 4*» СО tO •—* СО СО *~4 Оа 4^ СО 1О •—* СО "со"— Ъо "ста"V "to со -4 ел to "о"со"ел"со"о ЪоЪт"со"—Ъо оослсооо ^СОСЛОСЛ спеоооо ОСЛСОСО сл соо^сл ю ОО ЬЭСЛСОЮСТ) ь^СОСОСООО СОСОСОСОСО OCOOO<iCT СЛ4^С0Ю lOtOtO СО--4а> tOtOtOtOtO СЛ Ф» СО Ю н- >— >— О >— OCO ООООО Cn4s»COtO — СОСО-4СЭСЛ сл^о-эюю > о со оо <i оо со о со о о о — — — -vj -ч! ста ста ста ста ста ста _. •— О СО СО--1С7аСЛ4^ COtOOCOOO *>4СТаСЛ4а» i-O(O00 4 СТаСЛ42»СлЗЮ t-ОСОООЧ СТаСЛ4^СОЮ ста ста ста ел сл слелелелсл со to о со со *4 ста сл 4= со >Ь.СОСОСОСО СОСОСОСОСО tOtOtOIOtO —сооо-405 сл4^сою— сооо-доасл аел4Слзю о со to ю to to to to to CO со ~. ^.. _... — ОСО00*>4СЛ 4^. СО Ю *— О СОООСТаСЛ4^ со со ~-4 -4СТаслсл4ь со to >¦-* о со оо-4 ста ел со to о со X) ста СО СО СО СО 00 СОООООСООО ОООО cotoococo --ЗСТаСл4^Ю —О ^ , . ....,, -4 ста ста ста ста ста ста оа ста ста ел ел сл Сл ел со Со-^ саСЛСою— Ососооасл 4*. СО to — О 00--4 оа СЛ 4*- СЛ СЛ СЛ 4* 4*. 4^-4^4^4^4^ 4^ 4^ СО СО СО со to о со оо ->j ста сл со to и— о со оо ста ЮОсОСХ^СТа СЛ СО tO — СО 00-0Cn4s»tO >—О00--4СЛ 4^ tO — СО 00 — -<1 4*. О -q W СО СЛ tOCO 4^OCTatO00 4a. О СЛ — -s| tO00C0CO4i» oacn4^to^- сооо СОелОСЛО СЛО стаелсо —ооо-^ел 4»-to —co-vi ста 4*. со — с СЛО^ СО4^00СО-^ >~*CTaO4^00 tOOaOCO- ооооо ооососо сососососо сососооосо оооооооосо . . . . _ cocooaaiv^ со to >— со оо ^стаелсою >— о со •<! ста сл 4^ со •— о сооо-4ста4*» to осо --4сл ста со — со сл 38588 8fiS2 825*83
Если параметры pa неизвестны, то нужно в качестве оценки a использовать s; тогда мера отклонения t=*JZJL (Определение см. на с. 136) A.128) s/Уп имеет распределение Стьюдента, или t-распределение. При этом предполагается, что отдельные наблюдения xt независимы и распределены (хотя бы приближенно) нормально, /-распределение (см. рис. 25) весьма напоминает нормальное распределение: оно непрерывно, симметрично, колоколообразно, с областью изменения от минус бесконечности до плюс бесконечности. Оно, однако, не зависит от значений pa. Форма /-распределения зависит только от так называемого числа степеней свободы. Число степеней свободы: число степеней свободы FG, или v, статистики определяется числом независимых («свободных») наблюдений и равно объему выборки п минус число оцениваемых по выборке параметров: fG^v^ n — k. A.129) Статистика /-критерия, так как среднее значение оценивается по выборке, имеет ? = 1 и v = /г — 1 степеней свободы. Указания о том, как определять число степеней свободы для других статистик, мы приведем ниже. Чем меньше число степеней свободы, тем сильнее отклонение от нормального распределения, тем кривая будет более пологой, т. е. в отличие от нормального распределения больше вероятности на «хвостах» кривой и меньше — в центре (см. рис. 25). При большом числе степеней свободы t-распределение сходится к нормальному распределению. Основная область применения /-распределения — это сравнение средних значений. Распределение Стьюдента при малом числе степеней свободы по сравнению с нормальным распределением будет ниже, но более широким. В то время как при нормальном распределении 5% и 1% общей площади лежат за пределами границ ±1,96 и ±2,58, при 5 степенях свободы эти значения соответственно равны ±2,57 и ±4,03, а при 10 степенях свободы ±1,98 и ±2,62, т. е. почти совпадают с нормальным распределением. Таблица доверительных границ для /-распределения приведена на с. 130—131. Значения /, превосходящие табличные, при заданном уровне значимости следует считать чисто случайными. Исходят из данного числа степеней свободы; вероятности выйти за пределы границ, указанных в таблице, приведены в верхней строке. Тогда, например, для 5 степеней свободы (v »= 5I получаем, что вероятность Р выхода /-значения за пределы 2,571 равна 0,05, или 5%. Р — площадь, лежащая на обоих концах /-распределения за пределами /-границ. Это вероятность того, что табличное значение / будет превышено эмпирически найденным значением. 135
Табл. 27 содержит доверительные границы для дву- и одностороннего критерия. Например, для одностороннего критерия определяем ^зо; о.об = 1,697, t\2o; o.oi =* 2,358. Первый индекс означает число степеней свободы, второй — принятую вероятность ошибки. Подробные таблицы ^-распределения до п = 10 000 приводятся в [Federighi 19591 (см. также [Смирнов, 19611). 1.5.2. ^-РАСПРЕДЕЛЕНИЕ Пусть sa — дисперсия случайной выборки объема п из генеральной совокупности с дисперсией а2; тогда случайная переменная A.130) (Г* подчинена ^-распределению (хи-квадрат-распределение) с параметром v == п — 1 (число степеней свободы). Ее область изменения 0 ч—Ьоо; с ростом п ^-распределение также приближается к нормальному (но медленнее, чем ^-распределение). Форма ^-распределения зависит , как и в ^-распределении, только от числа степеней свободы. 0,2 г о 4 8 12 Рис, 26, Плотность вероятности % пределения при v=2 и v=5. Чем больше степеней свободы, тем более пологой и симметричной. становится асимметричная унимодальная кривая распределения. Важным свойством ^-распределения является его аддитивность. Если две независимые величины распределены по закону %2 с vx и v2 степенями свободы, то их сумма имеет ^-распределение с Vl + v2 степенями свободы. Основная область применения этого распределения, открытого Хельмертом A876) и Пирсоном A900), — это проверка гипотез о таблицах сопряженности признаков 2x2 и большего размера. Статистика %2 с v степенями свободы определяется как сумма квадратов v независимых переменных, распределенных по стандартному нормальному закону: "Определение t\ г?, A.131) 136
Для более чем 30 степеней свободы справедлива аппроксимация: AЛ32) (где г — переменная, распределенная по стандартному нормальному закону, см. табл. 13), или лучше (U32a) Подробнее о ^-распределении см. в [Lankaster, 1969]; см. также [Paradine, 1966] и [Vahle, Tews, 1969]. Еще одно замечание о написании х2. Обычно индексы записывают таким образом: % *; а- Если неверное понимание исключено, то достаточно одного индекса. Табл. 28 содержит только избранные значения ^-распределения. Если нужно найти точную вероятность для некоторого значения к2, то проводят логар и фмическую интерполяцию между двумя соседними значениями. Требуемые значения натуральных логарифмов приведены в табл. 29. Пример Пусть мы имеем х?о fg — 13,4. Вероятности для него лежат между 10 и 30%. Соответствующие границы: JCo,io ^ 16,0 и %о,зо *= И,8. Искомая вероятность находится тогда по формуле Таблица 29. Трехзначные натуральных логарифмов п 0,001 0,01 0,025 . 0,05 0,10 0,20 0,30 In п —6,908 -4,605 —3,689 —2,996 —2,303 —1,609 -1,204 п 0,50 0,70 0,80 0,90 0,95 0,975 0,99 значения Inn —0,693 —0,357 —0,223 —0,105 —0,051 -0,025 —0,010 —1пО,3 3,30 1пО,1-1пО,3 ,жо ~ Ко.зо Хо.ю — Ко.зо A3,4-11,8) (-2,303+1,204) 16>о_И,8 A.133) A.133а) In P = — 1,623, In P = 0,4343-In P - 0,4343-(—1,623), In Р = —0,7049 = 9,2951 — 10, или Р = 0,197в~ 0,20. Табл. 28 показывает, что 5Cio; о,ае = 13,4; совпадение хорошее. 137
Таблица 30а. Верхние доверительные границы F-распределения для Р = 0,Ю степеней свободы знаменателя X I 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 40 60 120 оо 1 39,86 8,53 5,54 4,54 4,06 3,78 3,59 3,46 3,36 3,29 3,23 3,18 3,14 3,10 3,07 3,05 3,03 3,01 2,99 2,97 2,96 2,95 2,94 2,93 2,92 2,91 2,90 2,89 2,89 2,88 2,84 2,79 2,75 2,71 2 49,50 9,00 5,46 4,32 3,78 3,46 3,26 3,11 3,01 2,92 2486 2,81 2,76 2,73 2,70 2,67 2,64 2,62 2,61 2,59 2,57 2,56 2,55 2,54 2,53 2,52 2,51 2,50 2,50 2,49 2,44 2,39 2,35 2,30 3 53,59 9,16 5,39 4,19 3,62 3,29 3,07 2,92 2,81 2,73 2,66 2,61 2,56 2,52 2,49 2,46 2,44 2,42 2,40 2,38 2,36 2,35 2,34 2,33 2,32 2,31 2,30 2,29 2,28 2,28 2,23 2,18 2,13 2,08 4 55,83 9,24 5,34 4,11 3,52 3,18 2,96 2,81 2,69 2,61 2,54 2,48 2,43 2,39 2,36 2,33 2,31 2,29 2,27 2,25 2,23 2,22 2,21 2,19 2,18 2 17 2,17 2,16 2,15 2,14 2,09 2,04 1,99 1,94 5 57,24 9,29 5,31 4,05 3,45 3,11 2,88 2,73 2,61 2,52 2,45 2,39 2,35 2,31 2,27 2,24 2,22 2,20 2,18 2,16 2,14 2,13 2,11 2,10 2,09 2,08 2,07 2,06 2,06 2,05 2,00 1,95 1,90 1,85 6 58,20 9,33 5,28 4,01 •3,40 3,05 2,83 2,67 2,55 2,46 2,39 2,33 2,28 2,24 2,21 2,18 2,15 2,13 2,11 2,09 2,08 2,06 2,05 2,04 2,02 2,01 2,00 2,00 1,99 1,98 1,93 1,87 1,82 1,77 7 58,91 9,35 5,27 3,98 3,37 3,01 2,78 2,62 2,51 2,41 2,34 2,28 2,23 2,19 2,16 2,14 2,10 2,08 2,06 •2,04 2,02 2,01 1,99 1,98 1,97 1,96 1,95 1,94 1,93 1,93 1 87 1,82 1,77 1,72 8 59,44 9,37 5,25 3,95 3,34 2,98 2,75 2,59 2,47 2,38 2,30 2,24 2,20 2,15 2,12 2,09 2,06 2,04 2,02 2,00 1,98 1,97 1,95 1,94 1,93 1,92 1,91 1,90 1,89 1,88 1,83 1,77 1,72 1,67 9 59,86 9,38 5,24 3,94 3,32 2,96 2,72 2,56 2,44 2,35 2,27 2,21 2,16 2,12 2,09 2,06 2,03 2,00 1,98 1,96 1,95 1,93 1,92 1,91 1,89 1,88 1,87 1,87 1,86 1,85 1,79 1,74 1,68 1,63 138
(S=90%); Vi — число степеней свободы числителя; v2 — число 10 60,19 9,39 5,23 3,92 3,30 2,94 2,70 2,54 2,42 2,32 2,25 2,19 2,14 2,10 2,06 2,03 2,00 1,98 1,96 1,94 1,92 1,90 1,89 1,88 1,87 1,86 1,85 ,84 ,83 1,82 1,76 1,71 1.65 1,60 12 60,71 9,41 5,22 3,90 3,27 2,90 2,67 2,50 2,38 2,28 2,21 2,15 2,10 2,05 2,02 1,99 1,96 1,93 1,91 1,89 1,87 1,86 1,84 1,83 1,82 1,81 1,80 1,79 1,78 1,77 1,71 1,66 1,60 1,55 15 61,22 9,42 5,20 3,87 3,24 2,87 2,63 2,46 2,34 2,24 2,17 2,10 2,05 2,01 1,97 1,94 1,91 1,89 1,86 1,84 1,83 1,81 1,80 1,78 1,77 1,76 1,75 1,74 1,73 1,72 1,66 1,60 1,55 1,49 20 61,74 9,44 5,18 3,84 3,21 2,84 2,59 2,42 2,30 2,20 2,12 2,06 2,01 1,96 1,92 1,89 1,86 ,84 ,81 ,79 ,78 1,76 ' 1,74 1,73 1,72 1,71 1,70 1,69 1,68 1,67 1,61 1,54 1,48 1,42 24 62,00 9,45 5,18 3,83 3,19 2,82 2,58 2,40 2,28 2,18 2,10 2,04 1,98 1,94 1,90 1,87 1,84 1,81 1,79 1,77 1,75 1,73 1,72 1,70 1,69 1,68 1,67 1,66 1,65 1,64 1,57 1,51 1,45 1,38 62,26 9,46 5,17 3,82 3,17 2,80 2,56 2,38 2,25 2,16 2,08 2,01 1,96 1,91 1,87 1,84 1 81 1,78 1,76 1,74 1,72 1,70 1,69 1,67 1,66 1,65 1,64 1,63 1,62 1,61 1,54 1,48 1,41 1.34 40 62,53 9,47 5,16 3,80 3,16 2,78 2,54 2,36 2,23 2,13 2,05 1,99 1,93 1,89 ] ] 1.85 1,81 1,78 1,75 1.73 ,71 ,69 1,67 ,66 ,64 1,63 1,61 1,60 1,59 1,58 1,57 1,51 1,44 1,37 1,30 60 62,79 9,47 5,15 3,79 3,14 2,76 2,51 2,34 2,21 2,11 2,03 1,96 1.90 1,86 1,82 1,78 1,75 1,72 1,70 1,68 1,66 1,64 1,62 1,61 1,59 1,58 1,57 1.56 1,55 1,54 1,47 1,40 1,32 1,24 120 63,06 9,48 5,14 3,78 3,12 2,74 2,49 2,32 2,18 2,08 2,00 1,93 1,88 1,83 1,79 1,75 1,72 1,69 1,67 1,64 1,62 1,60 1,59 1,57 1,56 1,54 1,53 1,52 1,51 1,50 1,42 1,35 1,26 1,17 оо 63,33 9,49 5,13 3,76 3,10 2,72 2,47 2,29 2,10 2,06 1,97 1,90 1,85 1,80 1,76 1,72 1,69 1,66 1,63 1,61 (,59 1,57 1,55 ,53 1,52 1,50 1.49 .48 ]47 1.46 1,38 1,29 [,19 [,00 139
Таблица 306. Верхние доверительные границы F-распределения для Р=0,05 v2 — число степеней свободы знаменателя 7 236,9 19,35 8,89 6,09 4,88 4,21 3,79 3,50 3,29 3,14 3,01 2,91 2,83 2,76 2,71 2,66 2,61 2,58 2,54 2,51 2,49 2,46 2,44 2,42 2,40 2,39 2,37 2,36 2,35 2,33 2,25 2,17 2,09 2,01 8 238,9 19,37 8,85 6,04 4,82 4,15 3,73 3,44 3,23 3,07 2,95 2,85 2,77 2,70 2,64 2,59 2,55 2,51 2,48 2,45 2,42 2,40 2,37 2,36 2,34 2,32 2,31 2,29 2,28 2,27 2,18 2,10 2,02 1,94 9 240,5 19,38 8,81 6,00 4,77 4,10 3,68 3,39 3,18 3,02 2,90 2,80 2,71 2,65 2,59 2,54 2,49 2,46 2,42 2,39 2,37 2,34 2,32 2,30 2,28 2,27 2,25 2,24 2,22 2,21 2,12 2,04 1,96 1,88 1 2 3 4 5 6 7 S 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 40 60 120 161,4 18,51 10,13 7,71 6,61 5,99 5,59 5,32 5,12 4,96 4,84 4,75 4,67 4,60 4,54 4,49 4,45 4,41 4,38 4,35 4,32 4,30 4,28 4,26 4,24 4,23 4,21 4,20 4,18 4,17 4,08 4,00 3,92 3,84 199,5 19,00 9,55 6,94 4,26 4,10 3,98 ,3,89 J3,81 .3,74 3,68 3,63 3,59 3,55 3,52 3,49 3,47 3,44 3,42 3,40 3,39 3,37 3,35 3,34 3,33 3,32 3,23 3,15 3,07 3,00 21Ь,7 ^19,16 9,28 6,59 5,41 4,76 4,35 4,07 3,86 3,71 3,59 3,49 3,41 3,34 3,29 3,24 3,20 3,16 3,13 3,10 3,07 3,05 3,03 3,01 2,99 2,98 2,96 2,95 2,93 2,92 2,84 2,76 2,68 2,60 224,6 19,25 9,12 6,39 5,19 4,53 4,12 3,84 3,63 3,48 3,36 3,26 3,18 3,11 3,06 3,01 2,96 2,93 2,90 2,87 2,84 2,82 2,80 2,78 2,76 2,74 2,73 2,71 2,70 2,69 2,61 2,53 2,45 2,37 230,2 19,30 9,01 6,26 5,05 4,39 3,97 3,69 3,48 3,33 3,20 3,11 3,03 2,96 2,90 2,85 2,81 2,77 2,74 2,71 2,68 2,66 2,64 2,62 2,60 2,59 2,57 2,56 2,55 2,53 2,45 2,37 2,29 2,21 234,0 19,33 8,94 6,16 4,95 4,28 3,87 3,58 3,37 3,22 3,09 3,00 2,92 2,85 2,79 2,74 2,70 2,66 2,63 2,60 2,57 2,55 2,53 2,51 2,49 2,47 2,46 2,45 2,43 2,42 2,34 2,25 2,17 2,10 140
со f- coco-* СО СО CM CD f- ^ СО СО<М СМ ^ОО О ю ^сосм ^ см" см" см" см" см* h-—• СОСМ с О О CD CD с ^ —< оо со со 00 00 Г- t- Is- Is- СО СО СО СО СО Ю СО СМ О CD Ю СО СО4** Ю СО СО CD 00 Ю Ю—• СМ 1>- CM CD 1>- rt СОСо"сМ CM 00 lOTf Ю 00 Ютр СОСМ *-ч см" см" см" см" см" SSI CM CM » О t^- ^ 1—1 СГ> О5 00 00 00 Is- О0 00 t^- Ю СМ СОЮ "*¦ СО СМ 8 00 1-- СГ> СМ "^ Ю СО н О—• 0s • COON rf CO CO CO CM см о>оо о см СО* СО СО СМ см СМ см" см* см" см" см" СО—* СО(М ОО —"-< 00 05 см см см см—. ЮСМ CD СО"^ СЛ (Л 00 00 00 CNOONlO 00 00 h- Is- t- •^f ^ со со см 1>- СОЮ -sf СО CO Is- Tf ^ CO Th" со" со" со" см" СО СО СО* 1 сою^ сосм см" см" см" см" см" О ЮО COCO CN^h-hOO см" см" см" см" см" <Л СО^ СУ5 О) О) СУ) OS 00 Г Ю f CM i-« 00 00 00 00 00 СО СМ Ю >-'^н CDN О CD 00 Ю ю—« см Soocoooo rr" со" со" со" см" О t-- Is-со —• см" см" см" см" см" г\| •—' —• —• О см" см" см" см" см" -* —• 00 СО4*1 О О CD CD О (NO00NIO CD CD 00 00 00 00 l>- СОЮ "^f IOCDN cd" *оо"ю" "* CD CM -ч Ю 00 ^ —* CD ^со"со*со"см см см см см см CD"* CDlO—< CM CM —« «-н —* CM CM CM CM CM 888SS cm" cm" cm" cm" —Г CO Ю CO —« О CD CD CD CD CD CD CD О ~ч CM 00 С— t— СОЮ 00 CD 00 Ю см~* •^ coco сосм rf1 CO CD ю^ со см см" см см" см СО 00 СО CD CO со см см-^ —• см см см см см СЧ О Is- ЮС0 -«—-ооо смечем см<м »-н CD Is- СО"* О CD CD CD CD POtiOCDN CD 00 t4- CO Ю CD CO CD "tf1 t—00 ю"ст> оо ю CM см *ф -и см «—• CO CD Ю CM О т^Ю COCO CO юс^ см со со 00 Is- СОЮ ^ CM CM CM CM CM •^ со сосм см ci См" см" СМ" СМ* O00 Ю CO—• CM «—i —< »-* i-x CM CM CM CM CM CD t>- CO^ CO о о оо о см" см" ci см" см" О CD 00 Г- СО см"—«"^Г^Г^-Г ^ tCD со" cd оо ю см > I>-O0 h- ?ю см о -* •* со со со ^н CD CDO СО CD Is- СО СО Ю см см <м см см оо см оо ^—< ^ ^ со coco <м" см" см" см" см" см см см см с>Г СОЮС0 СМ О см" см см см см" 88SSIS см*см"*-Г—. »-Г О CD СО CD ^f Is- CD rf CO ^ Ю^ t- о со со —* оо ю ю Is- с CD 00 Г*- СО С СМ СМ СМ СМ СМ Tf CDIO—< СО Ю^Ф ^f гр СО см см см" см <м юмомо COCO СОСМ СМ см см см (мечГ см см см см см СО 00 CD^ СО —« О CD CD 00 см см—.—..-н
Таблица ЗОв. Верхние доверительные границы F-распределения для Р=0,025 E=97,5%); Vi — число степеней свободы числителя; V2 ~ число степеней свободы знаменателя \. VI V2 ^""\ 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 40 60 120 оо 1 647,8 38,51 17,44 12,22 10,01 8,81 8,07 7,57 7,21 6,94 6,72 6,55 6,41 6,30 6,20 6,12 6,04 5,98 5,92 5,87 5,83 5,79 5,75 5,72 5,69 5,66 5,63 5,61 5,59 5,57 5,42 5,29 5,15 5,02 2 799,5 39,00 16,04 10,65 8,43 7,26 6,54 6,06 5,71 5,46 5,26 5,10 4,97 4,86 4,77 4,69 4,62 4,56 4,51 4,46 4,42 4,38 4,35 4,32 4,29 4,27 4,24 4,22 4,20 4,18 4,05 3,93 3,80 3,69 3 864,2 39,17 15,44 9,98 7,76 6,60 5,89 5,42 5,08 4,83 4,63 4,47 4,35 4,24 4,15 4,08 4,01 3,95 3,90 3,86 3,82 3,78 3,75 3,72 3,69 3,67 3,65 3,63 3,61 3,59 3,46 3,34 3,23 3,12 4 899,6 39,25 15.10 9|6О 7,39 6,23 5,52 5,05 4,72 4,47 4,28 4,12 4,00 3,89 3,80 3,73 3,66 3,61 3,56 3,51 3,48 3,44 3,41 3,38 3,35 3,33 3,31 3,29 3,27 3,25 3,13 3,01 2,89 2,79 5 921,8 39,30 14,88 9,36 7,15 5,99 5,29 4,82 4,48 4,24 4,04 3,89 3,77 3,66 3,58 3,50 3,44 3,38 3,33 3,29 3,25 3,22 3,18 3,15 3,13 3,10 3,08 3,06 3,04 3,03 2,90 2,79 2,67 2,57 6 937,1 39,33 14,73 9,20 6,98 5,82 5,12 4,65 4,32 4,07 3,88 3,73 3,60 3,50 3,41 3,34 3,28 3,22 3,17 3,13 3,09 3,05 3,02 2,99 2,97 2,94 2,92 2,90 2,88 2,87 2,74 2,63 2,52 2,41 7 948,2 39,36 14,62 9,07 6,85 5,70 4,99 4,53 4,20 3,95 3,76 3,61 3,48 3,38 3,29 3,22 3,16 3,10 3,05 3,01 2,97 2,93 2,90 2,87 2,85 2,82 2,80 2,78 2,76 2,75 2,62 2,51 2,39 2,29 8 956,7 39,37 14,54 8,98 6,76 5,60 4,90 4,43 4,10 3,85 3,66 3,51 3,39 3,29 3,20 3,12 3,06 3,01 2,96 2,91 2,87 2,84 2,81 2,78 2,75 2,73 2,71 2,69 2,67 2,65 2,53 2,41 2,30 2,19 9 963,3 39,39 14,47 8,90 6,68 5,52 4,82 4,36 4,03 3,78 3,59 3,44 3,31 3,21 3,12 3,05 2,98 2,93 2,88 2,84 2,80 2,76 2,73 2,70 2,68 2,65 2,63 2,61 2,59 2,57 2,45 2,33 2,22 2,П 10 968,6 39,40 14,42 8,84 6,62 5,46 4,76 4,30 3,96 3,72 3,53 3,37 3,25 3,15 3,06 2,99 2,92 _2,87 2,82 2,77 2,73 2,70 2,67 2,64 2,61 2,59 2,57 2,55 2,53 2,51 2,39 2,27 2,16 2,05 По [Hald, 1952] (см. [Cochran, 1940]) для vx и va больше 30 справедлива следующая аппроксимация: = - 0,290^; , v2; 0,4555 1,1131 V A —0,77 ==--0,527 142
Таблица ЗОв (продолжение) V4\V1 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 40 60 120 со 12 976,7 39,41 14,34 8,75 6,52 5,37 4,67 4,20 3,87 3,62 3,43 3,28 3,15 3,05 2,96 2,89 2,82 2,77 2,72 2,68 2,64 2,60 2,57 2,54 2,51 2,49 2,47 2,45 2,43 2,41 2,29 2,17 2,05 1,94 15 984,9 39,43 14,25 8,66 6,43 5,27 4,57 4,10 3,77 3,52 3,33 3,18 3,05 2,95 2,86 2,79 2,72 2,67 2,62 2,57 2,53 2,50 2,47 2,44 2,41 2,39 2,36 2,34 2,32 2,31 2,18 2,06 1,94 1,83 20 993,1 39,45 14,17 8,56 6,33 5,17 4,47 4,00 3,67 3,42 3,23 3,07 2,95 2,84 2,76 2,68 2,62 2,56 2,51 2,46 2,42 2,39 2,36 2,33 2,30 2,28 2,25 2,23 2,21 2,20 2,07 1,94 1,82 1,71 24 997,2 39,46 14,12 8,51 6,28 5,12 4,42 3,95 3,61 3,37 3,17 3,02 2,89 2,79 2,70 2,63 2,56 2,50 2,45 2,41 2,37 2,33 2,30 2,27 2,24 2,22 2,19 2,17 2,15 2,14 2,01 1,88 1,76 1,64 30 1001 39,46 14,08 8,46 6,23 5,07 4,36 3,89 3,56 3,31 3,12 2,96 2,84 2,73 2,64 2,57 2,50 2,44 2,39 2,35 2,31 2,27 2,24 2,21 2,18 2,16 2,13 2,11 2,09 2,07 1,94 1,82 1,69 1,57 40 1006 39,47 14,04 8,41 6,18 5,01 4,31 3,84 3,51 3,26 3,06 2,91 2,78 2,67 2,59 2,51 2,44 2,38 2,33 2,29 2,25 2,21 2,18 2,15 2,12 2,09 2,07 2,05 2,03 2,01 1,88 1,74 1,61 1,48 60 1010 39,48 13,99 8,36 6,12 4,96 4,25 3,78 3,45 3,20 3,00 2,85 2,72 2,61 2,52 2,45 2,38 2,32 2,27 2,22 2,18 2,14 2,11 2,08 2,05 2,03 2,00 1,98 1,96 1,94 1,80 1,67 1,53 1,39 120 1014 39,49 13,95 8,31 6,07 4,90 4,20 3,73 3,39 3,14 2,94 2,79 2,66 2,55 2,46 2,38 2,32 2,26 2,20 2,16 2,11 2,08 2,04 2,01 1,98 1,95 1,93 1,91 1,89 1,87 1,72 1,58 1,43 1,27 оо 1018 39,50 13,90 8,26 6,02 4,85 4,14 3,67 3,33 3,08 2,88 2*,72 2,60 2,49 2,40 2,32 2,25 2,19 2,13 2,09 2,04 2.00 1,97 1,94 [,91 1,88 1,85 1,83 1,81 ,79 ,64 ,48 ,31 ,00 2,0206 2,6841 igf0>0005 = -±Щ°_ 1>857 g. Пример. Fm. т. „05; g= 1/200— 1/100=.— 0,005; А = 2/A/200+1/100) = == 133,333; igF200. ш. 005; = у 133,33—0 95 ~ 0'681(-°'005> - °'12755: ^200; ЮО; 0,05 (точное значение). 143
Таблица 30г. Верхние доверительные границы ^-распределения для Я=0,01 (S=99%); vi — число степеней свободы числителя; V2 —число степеней свободы знаменателя 1 4052* 98,50 34,12 21,20 16,26 13,75 12,25 11,26 10,56 10,04 9,65 9,33 9,07 8,86 8,68 8,53 8,40 8,29 8,18 8,10 8,02 7,95 7,88 7,82 7,77 7,72 7,68 7,64 7,60 7,56 7,31 7,08 6,85 6,63 2 4999,5 99,00 30,82 18,00 13,27 10,92 9,55 8,65 8,02 7,56 7,21 6,93 6,70 6,51 6,36 6,23 6,11 6,01 5,93 5,85 5,78 5,72 5,66 5,61 5,57 5,53 5,49 5,45 5,42 5,39 5,18 4,98 4,79 4,61 3 5403 99,17 29,46 16,69 12,06 9,78 8,45 7,59 6,99 6,55 6,22 5,95 5,74 5,56 5,42 5,29 5,18 5,09 5,01 4,94 4,87 4,82 4,76 4,72 4,68 4,64 4,60 4,57 4,54 4,51 4,31 4,13 3,95 3,78 А 5625 99 28 15 И 9 7 7 6 5 5 5 5 5 4 4 4 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 3, з, 3, 3, ,25 ,71 ,98 ,39 ,15 ,85 ,01 ,42 99 67 41 21 04 89 77 67 58 50 43 37 31 26 22 18 14 11 07 04 02 83 65 48 32 р 5764 99 28 15 10 8 7 6 6 5 5 5 4 4 4 4, 4 4, 4, 4, 4, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, ,30 ,24 ,52 ,97 ,75 ,46 ,63 ,06 64 32 06 86 69 56 44 34 25 17 10 04 99 94 90 85 82 78 75 73 70 51 34 17 02 10 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 40 60 120 5859 99,33 27,91 15,21 10,67 8,47 7,19 6,37 5,80 5,39 5,07 4,82 4,62 4,46 4,32 4,20 4,10 4,01 3,94 3,87 3,81 3,76 3,71 3,67 3,63 3,59 3,56 3,53 3,50 3,47 3,29 3,12 2,96 2,80 5928 99,36 27,67 14,98 10,46 8,26 6,99 6,18 5,61 5,20 4,89 4,64 4,44 4,28 4,14 4,03 3,93 3,84 3,77 3,70 3,64 3,59 3,54 3,50 3,46 3,42 3,39 3,36 3,33 3,30 3,12 2,95 2,79 2,64 5982 99,37 27,49 14,80 10,29 8,10 6,84 6,03 5,47 5,06 4,74 4,50 4,30 4,14 4,00 3,89 3,79 3,71 3,63 3,56 3,51 3,45 3,41 3,36 3,32 3,29 3,26 3,23 3,20 3,17 2,99 2,82 2,66 2,51 6022 99,39 27,35 14,66 10,16 7,98 6,72 5,91 5,35 4,94 4,63 4,39 4,19 4,03 3,89 3,78 3,68 3,60 3,52 3,46 3,40 3,35 3,30 3,26 3,22 3,18 3,15 3,12 3,09 3,07 2,89 2,72 2,56 2,41 6056 99,40 27,23 14,55 10,05 7,87 6,62 5,81 5,26 4,85 4,54 4,30 4,10 3,94 3,80 3,69 3,59 3,51 3,43 3,37 3,31 3,26 3,21 3,17 3,13 3,09 3,06 3,03 3,00 2,98 2,80 2,63 2,47 2,32 144
Таблица ^Ог (продолжение) 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 40 60 120 оо 12 6106 99,42 27,05 14,37 9,89 7,72 6,47 5,67 5,11 4,71 4,40 4,16 3,96 3,80 3,67 3,55 3,46 3,37 3,30 3,23 3,17 3,12 3,07 3,03 2,99 2,96 2,93 2,90 2,87 2,84 2,66 2,50 2,34 2,18 15 6157 99,43 26,87 14,20 9,72 7,56 6,31 5,52 4,96 4,56 4,25 4,01 3,82 3,66 3,52 3,41 3,31 3,23 3,15 3,09 3,03 2,98 2,93 2,89 2,85 2,81 2,78 2,75 2,73 2,70 2,52 2,35 2,19 2,04 20 6209 99,45 26,69 14,02 9,55 7,40 6,16 5,36 4,81 4,41 4,10 3,86 3,66 3,51 3,37 3,26 3,16 3,08 3,00 2,94 2,88 2,83 2,78 2,74 2,70 2,66 2,63 2,60 2,57 2,55 2,37 2,20 2,03 1,88 24 6235 99,46 26,60 13,93 9,47 7,31 6,07 5,28 4,73 4,33 4,02 3,78 3,59 3,43 3,29 3,18 3,08 3,00 2,92 2,86 2,80 2,75 2,70 2,66 2,62 2,58 2,55 2,52 2,49 2,47 2,29 2,12 1,95 1,79 30 6261 99,47 26,50 13,84 9,38 7,23 5,99 5,20 4,65 4,25 3,94 3,70 3,51 3,35 3,21 3,10 3,00 2,92 2,84 2,78 2,72 2,67 2,62 2,58 2,54 2,50 2,47 2,44 2,41 2,39 2,20 2,03 1,86 1,70 40 6287 99,47 26,41 13,75 9,29 7,14 5,91 5,12 4,57 4,17 3,86 3,62 3,43 3,27 3,15 3,02 2,92 2,84 2,76 2,69 2,64 2,58 2,54 2,49 2,45 2,42 2,38 2,35 2,33 2,30 2,11 1,94 1,76 1,59 60 6313 99,48 26,32 13,65 9,20 7,06 5,82 5,03 4,48 4,08 3,78 3,54 3,34 3,18 3,05 2,93 2,83 ?,75 2,67 2,61 2,55 2,50 2,45 2,40 2,36 2,33 2,29 2,26 2,23 2,21 2,02 1,84 1,66 1,47 120 6339 99,49 26,22 13,56 9,11 6,97 5,74 4,95 4,40 4,00 3,69 3,45 3,25 3,09 2,96 2,84 2,75 2,66 2,58 2,52 2,46 2,40 2,35 2,31 2,27 2,23 2,20 2,17 2,14 2,11 1,92 1,73 1,53 1,32 оо 6366 99,50 26,13 13,46 9,02 6,88 5,65 4,86 4,31 3,91 3,60 3,36 3,17 3.00 2,87 2,75 2,65 2,57 2,49 2,42 2,36 2,31 2,26 2,21 2,17 2,13 2,10 2,06 2,03 2,01 1,80 1,60 1,38 1,00 145
Таблица ЗОд. Верхние доверительные границы /^распределения для Р=0,005 (S==99,5%); vi ~~ число степеней свободы числителя; V2 — число степеней свободы знаменателя 02 \ 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 40 60 120 ОО 1 16211 198 55 31 22 18 16 14 13 12 12 11 И 11 10 10 10 10 10 9 9 9 9, 9, 9, 9, 9, 9, 9, 9, 8, 8, 8, 7, ,5 , ЬЬ ,33 ,78 ,63 ,24 ,69 ,61 ,83 ,23 ,75 ,37 ,06 ,80 ,58 ,38 22 07 94 83 73 63 55 48 41 34 28 23 18 83 49 18 88 2 20000 199 49 26 18 14 12 11 10 9 8 8 8 7 7 7 7 7 7 6 6 6 6, 6, 6, 6, 6, 6, 6, 6, 6, 5, 5, 5, ,0 ,80 ,28 ,31 ,54 ,40 ,04 ,П ,43 ,91 ,51 ,19 ,92 ,70 ,51 ,35 ,21 09 99 89 81 73 66 60 54 49 44 40 35 07 79 54 30 3 21615 199 47 24 16 12 10 9 8 8 7 7 6 6 6 6 6 6 5 5 5 5, 5, 5, 5, 5, 5, 5, 5, 5, 4, 4, 4, 4, ,2 ,47 ,26 ,53 ,92 ,88 ,60 ,72 ,08 ,60 ,23 ,93 ,68 ,48 30 16 03 92 82 73 65 58 52 46 41 36 32 28 24 98 73 50 28 4 22500 199 46 23 15 12 10 8 7 7 6 6 6 6 5 5 5 5 5 5 5 5, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, з, з, ,2 ,19 ,15 ,56 ,03 ,05 ,81 ,96 ,34 ,88 ,52 ,23 ,00 ,80 ,64 50 37 27 17 09 02 95 89 84 79 74 70 66 62 37 14 92 72 5 23056 199 45 22 14 11 9 8 7 6 6 6 5 5 5 5 5 4 4 4 4 4, 4, 4, 4, 4, 4, 4, 4, 4, 3, 3, 3, 3, ,3 ,39 ,46 ,94 ,46 ,52 ,30 ,47 ,87 ,42 ,07 ,79 ,56 ,37 ,21 07 96 85 76 68 61 54 49 43 38 34 30 26 23 99 76 55 35 6 23437 199 44 21 14 11 9 7 7 6 6 5 5 5 5 4 4 4 4 4 4 4, 4, 4, 4, 4, 4, 4, 3, 3, з, з, з, з, ,4 ,84 ,97 ,51 ,07 ,16 ,95 ,13 ,54 ,10 ,76 ,48 ,26 ,07 ,91 ,78 66 56 47 39 32 26 20 15 10 06 02 98 95 71 49 28 09 7 23715 199 44 21 14 10 8 7 6 6 5 5 5 5 4 4 4 4 4 4 4, 4, 4, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 2, ,4 ,43 ,62 ,20 ,79 ,39 ,69 ,88 ,30 ,86 ,52 ,25 ,03 ,85 ,69 56 44 34 26 18 11 05 99 94 89 85 81 77 74 51 29 09 90 8 23925 199 44 21 13 10 8 7 6 6 5 5 5 4 4 4 4 4 4 4 4, 3, 3, 3, з, 3, 3, з, 3, 3, з, з, 2, 2, ,4 ,13 ,35 ,96 ,57 ,68 ,50 ,69 ,12 ,68 ,35 ,03 ,86 67 52 39 28 18 09 01 94 88 83 78 73 69 65 61 58 35 13 93 74 9 24091 199 43 21 13 10 8 7 6 5 5 5 4 4 4 4 4 4 4 3 з з, 3, з, 3, 3, 3, з, з, з, 3, з, 2, 2, ,4 t88 ,14 ,77 ,39 ,51 ,34 ,54 ,97 ,54 ,20 ,94 ,72 ,54 ,38 ,25 ,14 04 96 88 81 75 69 64 60 56 52 48 45 22 01 81 62 1 0 24224 199 43 20 13 10 8 7 6 5 5 5 4 4 4 4 4 4 3 3 з, 3, 3, 3, 3, 3, з, з, з, з, з, 2, 2, 2, ,4 ,69 ,97 ,62 ,25 ,38 ,21 ,42 ,85 ,42 ,09 ,82 ,60 ,42 ,27 ,14 03 93 85 77 70 64 59 54 49 45 41 38 34 12 90 71 52 146
Табл «2 \ 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 40 60 120 оо и ц а Збд (продолжение) 12 24426 199,4 43,39 20,70 13,38 10,03 8,18 7,01 6,23 5,66 5,24 4,91 4,64 4,43 4,25 4,10 3,97 3,86 3,76 3,68 3,60 3,54 3,47 3,42 3,37 3,33 3,28 3,25 3,21 3,18 2,95 2,74 2,54 2,36 15 25630 199,4 43,08 20,44 13,15 9,81 7,97 6,81 6,03 5,47 5,05 4,72 4,46 4,25 4,07 3,92 3,79 3,68 3,59 3,50 3,43 3,36 3,30 3,25 3,20 3,15 з,п 3,07 3,04 3,01 2,78 2,57 2,37 2,19 20 24836 199,4 42,78 20,17 12,90 9,59 7,75 6,61 5,83 5,27 4,86 4,53 4,27 4,06 3,88 3,73 3,61 3,50 3,40 3,32 3,24 3,18 3,12 3,06 3,01 2,97 2,93 2,89 2,86 2,82 2,60 2,39 2,19 2,00 24 24940 199,5 42,62 20,03 12,78 9,47 7,65 6,50 5,73 5,17 4,76 4,43 4,17 3,96 3,79 3,64 3,51 3,40 3,31 3,22 3,15 3,08 3,02 2,97 2,92 2,87 2,83 2,79 2,76 2,73 2,50 2,29 2,09 1,90 30 25044 199,5 42,47 19,89 12,66 9,36 7,53 6,40 5,62 5,07 4,65 4,33 4,07 3,86 3,69 3,54 3,41 3,30 3,21 3,12 3,05 2,98 2,92 2,87 2,82 2,77 2,73 2,69 2,66 2,63 2,40 2,19 1,98 1,79 40 25148 199,5 42,31 19,75 12,53 9,24 7,42 6,29 5,52 4,97 4,55 4,23 3,97 3,76 3,58 3,44 3,31 3,20 3,11 3,02 2,95 2,88 2,82 2,77 2,72 2,67 2,63 2,59 2,50 2,52 2,30 2,08 1,87 1,67 60 25253 199,5 42,15 19,61 12,40 9,12 7,31 6,18 5,41 4,86 4,44 4,12 3,87 3,66 3,48 3,33 3,21 3,10 3,00 2,92 2,84 2,77 2,71 2,66 2,61 2,56 2,52 2,48 2,45 2,42 2,18 1,96 1,75 1,53 120 25359 199,5 41,99 19,47 12,27 9,00 7,19 6,06 5,30 4,75 4,34 4,01 3,76 3,55 3,37 3,22 3,10 2,99 2,89 2,81 2,73 2,66 2,60 2,55 2,50 2,45 2,41 2,37 2,33 2,30 2,06 1,83 1,61 1,36 оо 25465 199,5 41,83 19,32 12,14 8,88 7,08 5,95 5,19 4,64 4,23 3,90 3,65 3,44 3,26 3,11 2,98 2,87 2,78 2,69 2,61 2,55 2,48 2,43 2,38 2,33 2,29 2,25 2,21 2,18 1,93 1,69 1,43 1,00 147
Таблица ЗОе. Верхние доверительные границы F-распределения для Р=0,001 V2 — число степеней свободы знаменателя XI 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 40 60 120 оо 1 4053+ 998,5 167,0 74,14 47,18 35,51 29,25 25,42 22,86 21,04 19,69 18,64 17,81 17,14 16,59 16,12 15,72 15,38 15,08 14,82 14,59 14.38 14,19 14,03 13,88 13,74 13,61 13,50 13,39 13,29 12,61 11,97 11,38 10,83 2 5000+ 999,0 148,5 61,25 37,12 27,00 21,69 18,49 16,39 14,91 13,81 12,97 12,31 11,78 11,34 10,97 10,66 10,39 10,16 9,95 9,77 9,61 9,47 9,34 9,22 9,12 9,02 8,93 8,85 8,77 8,25 7,76 7,32 6,91 3 5404+ 999,2 141,1 56,18 33,20 23,79 18,77 15,83 13,90 12,55 11,56 10,80 10,21 9,73 9,34 9,00 8,73 8,49 8,28 8,10 7,94 7,80 7,67 7,55 7,45 7,36 7,27 7,19 7,12 7,05 6,60 6,17 5,79 5,42 4 5625+ 999,2 137,1 53,44 31,09 21,92 17,19 14,39 12,56 11,28 10,35 9,63 9,07 8,62 8,25 7,94 7,68 7,46 7,26 7,10 6,95 6,81 6,69 6,59 6,49 6,41 6,33 6,25 6,19 6,12 5,70 5,31 4,95 4,62 5 5764+ 999,3 134,6 51,71 29,75 20,81 16,21 13,49 11,71 10,48 9,58 8,89 8,35 7,92 7,57 7,27 7,02 6,81 6,62 6,46 6„ 32 6,19 6,08 5,98 5,88 5,80 5,73 5,66 5,59 5,53 5,13 4,76 4,42 4,10 6 5859+ 999,3 132,8 50,53 28,84 20,03 15,52 12,86 11,13 9,92 9,05 8,38 7,86 7,43 7,09 6,81 6,56 6,35 6,18 6,02 5,88 5,76 5,65 5,55 5,46 5,38 5,31 5,25 5,18 5,12 4,73 4,37 4,04 3,74 7 5929+ 999,4 131,6 49,66 28,16 19,46 15,02 12,40 10,70 9,52 8,66 8,00 7,49 7,08 6,74 6,46 6,22 6,02 5,85 5,69 5,56 5,44 5,33 5,23 5,15 5,07 5,00 4,93 4,87 4,82 4,44 4,09 3,77 3,47 8 5981+ 999,4 130,6 49,00 27,64 19,03 14,63 12,04 10,37 9,20 8,35 7,71 7,21 6,80 6,47 6,19 5,96 5,76 5,59 5,44 5,31 5,19 5,09 4,99 4,91 4,83 4,76 4,69 4,64 4,58 4,21 3,87 3,55 3,27 9 6023+ 999,4 129,9 48,47 27,24 18,69 14,33 11,77 10,11 8,96 8,12 7,48 6,98 6,58 6,26 5,98 5,75 5,56 5,39 5,24 5,11 4,99 4,89 4,80 4,71 4,64 4,57 4,50 4,45 4,39 4,02 3,69 3,38 3,10 + Эти значения следует умножить на 100. Источник: Biometrika Tables for Statisticians. Vol. 1, edited by Pearson E. S, Fisher R. A. and Yates F. Statistical Tables for Biological, Agricultural and 148
E=99,9%); vi — число степеней свободы числителя; 10 6056+ 999,4 129,2 48,05 26,92 18,41 14,08 11,54 9,89 8,75 7,92 7,29 6,80 6,40 6,08 5,81 5,58 5,39 5,22 5,08 4,95 4,83 4,73 4,64 4,56 4,48 4,41 4,35 4,29 4,24 3,87 3,54 3,24 2,96 12 6107+ 999,4 128,3 47,41 26,42 17,99 13,71 11,19 9,57 8,45 7,63 7,00 6,52 6,13 5,81 5,55 5,32 5,13 4,97 4,82 4,70 4,58 4,48 4,39 4,31 4,24 4,17 4,11 4,05 4,00 3,64 3,31 3,02 2,74 15 6158+ 999,4 127,4 46,76 25,91 17,56 13,32 10,84 9,24 8,13 7,32 6,71 6,23 5,85 5,54 5,27 5,05 4,87 4,70 4,56 4,44 4,33 4,23 4,14 4,06 3,99 3,92 3,86 3,80 3,75 3,40 3,08 2,78 2,51 20 6209+ 999,4 126,4 46,10 25,39 17,12 12,93 10,48 8,90 7,80 7,01 6,40 5,93 5,56 5,25 4,99 4,78 4,59 4,43 4,29 4,17 4,06 3,96 3,87 3,79 3,72 3,66 3,60 3,54 3,49 3,15 2,83 2,53 2,27 24 6235+ 999,5 125,9 45,77 25,14 16,89 12,73 10,30 8,72 7,64 6,85 6,25 5,78 5,41 5,10 4,85 4,63 4,45 4,29 4,15 4,03 3,92 3,82 3,74 3,66 3,59 3,52 3,46 3,41 3,36 3,01 2,69 2,40 2,13 30 6261 + 999,5 125,4 45,43 24,87 16,67 12,53 10,11 8,55 7,47 6,68 6,09 5,63 5,25 4,95 4,70 4,48 4,30 4,14 4,00 3,88 3,78 3,68 3,59 3,52 3,44 3,38 3,32 3,27 3,22 2,87 2,55 2,26 1,99 40 6287+ 999,5 125,0 45,09 24,60 16,44 12,33 9,92 8,37 7,30 6,52 5,93 5,47 5,10 4,80 4,54 4,33 4,15 3,99 3,86 3,74 3,63 3,53 3,45 3,37 3,30 3,23 3,18 3,12 3,07 2,73 2,41 2,11 1,84 60 6313+ 999,5 124,5 44,75 24,33 16,21 12,12 9,73 8,19 7,12 6,35 5,76 5,30 4,94 4,64 4,39 4,18 4,00 3,84 3,70 3,58 3,48 3,38 3,29 3,22 3,15 3,08 3,02 2,97 2,92 2,57 2,25 1,95 1,66 120 6340+ 999,5 124,0 44,40 24,06 15,99 11,91 9,53 8,00 6,94 6,17 5,59 5,14 4,77 4,47 4,23 4,02 3,84 3,68 3,54 3,42 3,32 3,22 3,14 3,06 2,99 2,92 2,86 2,81 2,76 2,41 2,08 1,76 1,45 оо 6366+ 999,5 123,5 44,09 23,79 15,75 11,70 9,33 7,81 6,76 6,00 5,42 4,97 4,60 4,31 4,06 3,85 3,67 3,51 3,38 3,26 3,15 3,05 2,97 2,89 2,82 2,75 2,69 2,64 2,59 2,23 1,89 1,54 1,00 and H. О. Hartley. Cambridge Unirversity Press, Cambridge, 1958,- Table 18; Medical Research. Oliver and Boyd Ltd., Edinburgh, 1963, Table V. 149
1.5.3. ^РАСПРЕДЕЛЕНИЕ Пусть sf и si — дисперсии независимых случайных выборок объема пг и п% из двух нормально распределенных генеральных совокупностей с равными дисперсиями; тогда случайная переменная ^=4- w>si) о-134) подчиняется F-распределению с параметрами v1 — n1 — 1 и v2 = = п2 — 1. ^-распределение — также непрерывное, асимметричное распределение с областью изменения от нуля до бесконечности (см. рис. 27). Вид F-распределения зависит, как уже было упомянуто, от двух степеней свободы vx и v2. Таблицы с доверительными границами ^-распределения для одностороннего критерия представлены на с. 138—149. Промежуточные значения определяются с помощью гармонической интерполяции. Определение F: ^ x$t/v Рис. 27. Плотность вероятности F-pac- пределения: F (vi = l; v2=5) и F (vi= 10; va-10). Если, например, нужно отыскать 1%-ные границы для vt — 24 и v2 = 60, то по таблицам находят границы для 20, 60 и 30, 60, соответственно равные 2,20 и 2,03. Обозначая искомое значение через х% получаем 2,20-* 1/20 — 1/24 2,20—2,03 1/20-1/30 * A.135) откуда х = 2,115. Точное табличное значение равно 2,12. Значение F, как отношение двух квадратов, может изменяться отО до оо и подобно ^-распределению имеет только правую координатную сетку. Вместо зеркальной симметричной кривой, как у ^-распределе- ния, тут имеет место «обратная симметрия». Здесь может рассматриваться связь F и VF и vx и v2 (как +t и — t при ^-распределении): F^"'-l-a)=n^y (U36) 150
По этому соотношению легко вычислить, например, значение FOf95 при известном значении F005. Пример Дано: vt = 12; v2 = 8; а = 0,05, т. е. F = 3,28. Найти Т7 для: vx = 12; v2 = 8, а = 0,95. Определяем для \\ = 8, v2 = 12 и а = 0,05, т. е. значение F = s= 2,85, откуда искомое значение равно 1/2,85 = 0,351. Для больших чисел степеней свободы справедлива аппроксимация lgF = 0,4343 -z.i/2(Vl+V8), A.137) J/ vi-va где г — стандартная нормально распределенная величина для выбранной вероятности ошибки при одностороннем доверительном интервале (см. табл. 43, с. 204). Так, например, определим F A20; 120; 0,05) lgF = 0,4343-1,64 УЩ1+Ш- ^0,13004, F=l,35 (табл. 306). Интерполирование промежуточных значений В случае, когда ни vqHCJIHT (vx или v4), ни v3HaMeilaT (v2 или v3II) не содержатся в таблицах, следует воспользоваться соседними табличными значениями и аппроксимацией по [Laubscher, 19653: v3H) = (l-A).(l-B)-F(vi vZH) + A-(l-B).F(v'H, vH) + + (l-A)-B.F(v'49 v;H) + A-B-F(vl v'sH) A.138) V3H\V3H и В Пример Рассчитать F B8, 44, 0,01). Дано: F B0, 40; 0,01) = 2,37; F B0, 50; 0,01) = 2,27; F C0,40; 0,01) - 2,20; FC0, 50; 0,01) = 2,10. Вычисляем л_ 50D4--40) = 5 u B== 30B8 — 20) = 6 ~~ 44E0 — 40) ~ 11 ~~ 28C0 — 20) ~" 7 ' откуда .F B8,44; 0,01) = ± . ± . 2,37 + ±-. -L. 2,27 + + 1 y*2,20 +A.-5-.2,10 = 2,178^2,18. Если таблица содержит vr, но не содержит v3H, то интерполируют по формуле F (v,, v3H) = A-А) - F,(v,, v3'H) + A'F (v,f vi), A.139) 151
в противоположном случае, когда v4 — нет, v3H — есть в таблице, справедливо выражение F (v«, v3H) = A-5) • F (v,', v3H) + В • F К, v3K). A.140) Интерполирование вероятностей Мы привели таблицы доверительных границ для 0,1, 0,5, 1,0, 2,5, 5 и 10%-ного уровня значимости. Если необходимо интерполировать значение уровня /^критерия для v± и v2 степеней свободы между границами 0,1 и 10%,то используется следующий способ, предложенный в [Zinger, 1964]. 1. Эмпирически определенное значение F расположить таким образом между двумя табличными значениями (Fly F2) с вероятностями ошибок а и а • /п, что Ft<i F < F2. 2. Определить отношение k = F*~F . A.141) 3. Интерполированная вероятность тогда равна Р = а • mk A.142) Пример Дано: F = 3,43; vx = 12; v2 = 12. - Подобрать вероятность того, что это значение F будет превышено. 1. Наблюдаемое F-значение лежит между границами 1 и 2,5% (т. е. а = 0,01; т = 2,5): Fx - 3,28 < F = 3,43 < F2 = 4,16. 2. Отношение /С = ^'^б-з'гв = 0>8295' 3. Аппроксимирующую вероятность получаем тогда (логарифмированием!) по формуле Р = 0,01 • 2,50'8295 = 0,0214. Точное значение 0,0212. Если необходимо определить значимость произвольного эмпирического F-критерия, в особенности для значений с Р>0,10, то следует воспользоваться аппроксимацией, предложенной [Paulson, 1942], которая справедлива для числа степеней свободы, не меньшего трех: z=-± v j*^ AЛ43) 9v2 9v! причем значимая вероятность определяется как площадь, соответствующая г-границам на обоих концах нормального распределения. Кубический корень из F и F2 определяют с помощью логарифмов. Пример Дано F = 1,50 при v± = 6 и v2 = 14. Определить вероятность ошибки, соответствующую этому значению F: 152
г = JL 9-14 ' T9-6 Для одностороннего доверительного интервала получаем вероятность ошибки около Р = 0,20. Точное значение Р = 0,25. Чем больше* число степеней свободы, тем лучше аппроксимация. В диапазоне 0,01 < Р < 0,99 для среднего числа степеней свободы точность ее вполне удовлетворительна. Простое и наглядное соотношение между F'-распределением, двумя другими распределениями выборочных статистик и нормальным распределением F-распределение переходит при Vj = 1 и v2 = v в распределение для t2; A.144) vx = 1 и v2 = оо в распределение для z2; A.145) Vj = v и v2 = оо в распределение для %2/v. A.146) Например, имеем для /чо; ю; o,os = 2,98: Fu ю; 0,05 =4,96, /105 0,05 = 2,228, т. е. /f05 o,os=4,96; Гц оо; cos = 3,84, г0,05= 1,960, т. е. z20,05 = 3,84; Логов; 0,05 = 1,83, xfo; 0.05/10= 18,307/10= 1,83. Одновременно распределение Стьюдента, стандартное нормальное распределение и ^-распределение допускают обратный переход в F-распределению и его предельным случаям v = В заключение следует отметить, что ^oojoo = 1. 1.6. ДИСКРЕТНЫЕ РАСПРЕДЕЛЕНИЯ О 1.6.1. БИНОМИАЛЬНЫЙ КОЭФФИЦИЕНТ Число комбинаций из п элементов по х (по х одновременно) обозна- чаютп Сх или I ) (читай вначале п> потом х). Расчет числа таких комбинаций производится по формуле пСх=( п )= 2! . A.147) 153
При этом п ! (п факториал) означает: произведение натуральных чисел от 1 до п, или п ! = п • (/г— 1)-(/г—2) *... * 1; например, 5! = = 5. • 4 • 3 • 2 • 1 = 120. Число комбинаций из 5 элементов по 3 составляет п 5! 54-3.2-1 1Л 5 3 3E3)! 32121 3.E-3)! 3-2-1.2.1 [ИШ[х)~~~ 1-2-3. ... -х f \Т/ Г<Гз~~ ' ~~~ ' для х>п справедливо / ) =0, для х<?п справедливо ( п J = V п-х ) (л—*)!*!_!' Другие примеры. Сколькими способами можно составить комитет из 5 членов, когда в распоряжении есть группа из 9 человек? С 9! _ 91 _.9-8.7-6-5_126 9 5~~ 5!-(9—5)! "' 51-4! 5! ~~ Сколько шансов выиграть в лото, когда необходимо выбрать 6 цифр из 49? Число комбинаций из 49 элементов по 6 составляет / 49 \ 49! ^ . , — ] = =1 14 МЛН. \ 6 ) 6!- 43! Вспомним, что 0! = 1 по определению; тогда 71 ° \ 0 ) ~~ 0! • (л —0)! "~ 0!-л! Кроме того, естественно, ( 1=1. Другие способы записи для пСх — это Сп или Cllt х. Треугольник Паскаля (п\ Биномиальные коэффициенты можно находить из приведение)- \Х/ го ниже треугольника Паскаля A623—1662). Если сложить два соседних числа треугольника, то получим число, стоящее ниже в промежутке между ними. Правило треугольника Паскаля гласит: f п) + ( п ) = (n+l) AЛ48) I 2 J ~ + ~ ~\2 154
Биномиальные коэффициенты для (о) (?) B) Г)C) (о) (? 33 * Л== з и т. д. Особенность треугольника состоит в том, что он непосредственно дает вероятности различных случаев при бросании монеты. Например, сумма чисел в четвертой строке равна 1+3 + 3+1=8. Если мы образуем дроби 1/8, 3/8, 3/8, 1/8, то получим вероятности различных событий, возможных при трехкратном бросании монеты, т. е. три герба A/8), два герба и решка C/8), герб и две решки C/8) и три решки A/8). Соответственно значения в пятой (я-й) строке дают нам вероятности при четырехкратном (п—1:кратном) бросании монеты. Треугольник Паскаля служит также для определения вероятностей комбинаций: вероятность определенной комбинации мальчики — девочки в^семье, скажем, с четырьмя детьми. Вначале суммируются числа соответствующего ряда; дано п = 4 и сумма равна 16. На концах ряда стоят наименее вероятные комбинации — или все мальчики, или все девочки — с вероятностью 1/16. Передвигаясь к середине, получим более вероятные комбинации — три мальчика и одна девочка или наоборот — с вероятностью 4/16. Среднее число 6 соответствует двум мальчикам и двум девочкам: вероятность этого равна 6/16, или примерно 38%. Коэффициенты разложения (а + b) n — сумма двух членов называется биномом, так что это выражение дает n-ю степень бинома — могут быть получены с помощью треугольника Паскаля. Следует заметить, что первый и последний коэффициенты всегда равны единице; второй и предпоследний — показателю степени бинома п. Коэффициент 1 обычно не пишут ((а + bI = la + \Ь = а + Ь). Общая формула для п-й степени бинома дается теоремой (Ньютон, 1643—1727): ( п }ап-гЬ+( п , dbn+bn= ^ I )an-kbk. A.149) Для а > b справедливо (а + Ь)п « а" + па^-1 6. /г / Л \ Примечание: 2n=(l + l)" = 2 ( fe )• A.150) 155
Биномиальные коэффициенты приведены в табл. 31 ниже. Результаты обоих примеров могут быть непосредственно взяты из таблицы. Таблица большего объема приведена в [Miller, 1954]. Если нет таблицы достаточного объема для вычисления факториала ft! и его десятичного логарифма lg ft! — табл. 32 содержит значения для 1 <! ft ^ 100, — то следует воспользоваться приближенной формулой Стирлинга У2лп-ппе~п. [A.161) Для больших значений п приближение весьма хорошее. При вычислении lg n пользуются следующими логарифмами: lg У§я = 0,39909; lg е = 0,4342945. Для lg я! ~ lg |/я + 1/2 lg ft + п lg ft—ft lg e лучше записать ft + 0,5)lgft— nlge. A.152) Таблица 31. Биномиальные коэффициенты пРх—~ х\ • (п—х)\ [ п \ [ п \ { ^ \ fy 6 • Так как I 1=1 1, то найдем для eW^I — )= = / 6 \ / 6 \ при ( — 1=1--——I значение, равное 15. 3-2 :. 1 Ч. л: п ^\ 2 3 4 5 6 7 8 9 10 И 12 13 14 15 16 17 18 19 20 2 1 3 6 10 15 21 28 36 45 55 66 78 91 105 120 136 153 171 190 3 1 4 10 20 35 56 84 120 165 220 286 364 455 560 680 816 969 1140 4 1 5 15 35 70 126 210 330 495 715 1001 1365 1820 2380 3060 3876 4845 5 1 6 21 56 126 252 462 792 1287 2 002 3 003 4 368 6 188 8 568 11628 15 504 6 1 7 28 84 210 462 924 1716 3 003 5 005 8 008 12 376 18 564 27132 38 760 7 1 8 36 120 330 792 1716 3 432 6 435 11440 19 448 31824 50388 77 520 8 1 9 45 165 495 1287 3 003 6 435 12 870 24310 43 758 75 582 12 5970 9 1 10 55 220 715 2 002 5 005 11440 24310 48 620 92 378 167 960 10 1 11 66 286 1001 3 003 8 008 19 448 43 758 92 378 184 756 Например, для 100! получаем lg 100! ~ 0,39909 + A00 + 0,5) 2—100 100! ~ 9,325 0,4342945 ~ 157,96964, 10ш. 156
Т а б л i п 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 i ц а 32. Факториалы и их десятичные логарифмы л! 1,0000 2,0000 6,0000 2,4000X10 1,2000Х103 7,2000x102 5,0400X103 4,0320x104 3,6288ХЮ5 3,6288хЮ6 3,9917X107 4,7900хЮ8 6,2270ХЮ9 8,7178хЮЮ 1,3077x1012 2,0923хЮ13 3,5569x1014 6,4024хЮ15 1,2165x101? 2,4329X1018 5,1091x101» 1,1240x1021 2,5852x1022 6,2045X1023 1,5511X102* 4,0329x1026 1,0889x1028 3,0489x1029 8,8418хЮзо 2,6525x1032 8,2228X1033 2,6313хЮзз 8,6833X1036 2,9523X1038 1,0333хЮ4о 3,7199x1041 1,3764хЮ4з 5,2302x1044 2,0398хЮ4в 8,1592x1047 3,3453x1049 1,4050хЮ51 6,0415хЮ52 2,6583X1054 1,1962хЮ5б 5,5026хЮ57 2,58б2хЮ59 1,2414x1061 6,0828X1062 3,0414x1064 \g п\ 0,00000 0,30103 0,77815 1,38021 2,07918 2,85733 3,70243 4,60552 5,55976 6,55976 7,60116 8,68034 9,79428 10,94041 12,11650 13,32062 14,55107 15,80634 17,08509 18,38612 19,70834 21,05077 22,41249 23,79271 25,19065 26,60562 28,03698 29,48414 30,94654 32,42366 33,91502 35,42017 36,93869 38,47016 40,01423 41,57054 43,13874 44,71852 46,30959 47,91165 49,52443 51,14768 52,78115 54,42460 56,07781 57,74057 59,41267 61,09391 62,78410 64,48307 п 51 52 53 54 55 56 57 58 59 60 61 62 63 64 65 66 67 68 69 70 71 72 73 74 75 76 77 78 79 80 81 82 83 84 85 86 87 88 89 90 91 92 93 94 95 96 97 98 99 100 1,5511x1066 8,0658x1067 4,2749x1069 2,3084x1071 1,2696x1073 7,1100x1074 4,0527хЮ7в 2,3506x1078 1,3868хЮ8о 8,32ЮхЮ81 5,0758хЮ83 3,1470хЮ85 1,9826хЮ87 1,2689x1089 8,2477хЮ9о 5,4435x1092 3,6471x10*4 2,48ООХЮ96 1,7112хЮ98 1,1979x101°° 8,5048X10101 6,1234х10ЮЗ 4,4701хЮЮ5 3,3079хЮЮ7 2,4809x10109 1,8855х10ш 1,4518x10113 1,1324хЮИ5 8,9462x10116 7,1569ХЮИ8 5,7971x10120 4,7536x10122 3,9455x10124 3,3142 X 10*26 2,8171x10128 2,4227хЮ1зо 2,1078X10132 1,8548x10134 1,6508x10136 1,4857x10138 1,3520x10140 1,2438X10142 1,1568x10144 1,0874хЮ146 1,0330x10148 9,9168X10149 9,6193ХЮ151 9,4269x10153 9,332бхЮ155 9,3326x1015? lg/i! 66,19065 67,90665 69,63092 71,36332 73,10368 74,85187 76,60774 78,37117 80,14202 81,92017 83,70550 85,49790 87,29724 89,10342 90,91633 92,73587 94,56195 96,39446 98,23331 100,07841 101,92966 103,78700 105,65032 107,51955 109,39461 111,27543 113,16192 115,05401 116,95164 118,85473 120,76321 122,67703 124,59610 126,52038 128,44980 130,38430 132,32382 134,26830 136,21769 138,17194 140,13098 142,09477 144,06325 146,03638 148,01410 149,99637 151,98314 153,97437 155,97000 157,97000 157
Табличные значения равны: lg 100! = 157,97000, 100! = 9,3326 • 10157. Применяя формулы Стирлинга, следует помнить, что сростом п (значение п\ растет чрезвычайно быстро) абсолютная ошибка становится очень большой у в то время как относительная ошибка стремится к нулю — она равна примерно 11A2 п) — и уже при п = 9 ниже одного процента. Следует упомянуть также о грубом приближении (п + а)\ & п ! паеТ, где г = (а2 + а) / B/г). Элементы комбинаторики Каждое расположение (упорядочение) п элементов в определенный ряд называется перестановкой этих элементов. Из п элементов получается п\ различных перестановок. Так 3 буквы а, Ь, с могут быть упорядочены 3! = 6 способами: а Ь с Ъа с cab а с b b с а с b a Если среди я элементов имеются пг элементов одного типа, п2 элементов другого типа и nh элементов &-го типа, что число возможных перестановок равно при Пх + п2 + п3+ ,.. +nk = n. A.153) Это выражение понадобится нам в дальнейшем при изучении многомерных распределений. Выбор k элементов из общего числа п элементов (п ^ k) называется сочетанием из п элементов по k. В зависимости от того, имеются ли среди элементов одинаковые или все элементы различны, говорят о сочетаниях с повторениями и без повторений. Если нужно различать сочетания, состоящие из одних и тех же элементов, но отличающиеся их порядком, то говорят о сочетаниях с учетом порядка и о сочетаниях без учета порядка. В зависимости от этого мы можем выделить 4 различные модели — число сочетаний из п элементов по k: I. Без повторения и без учета порядка определяется биномиальным коэффициентом II. Без повторения, но с учетом порядка равно —^ , . A.155) (л-А)! III. С повторением, но без учета порядка равно A.156) 158
IV. С повторением и с учетом порядка равно /А A.157) Пример Число сочетаний из трех элементов (буквы а, Ь, с) по два (п = 3, Модель I II III IV Повторение без без с с Учет порядка без с без с Сочетания вид aby ас, be aby aCy be buy cat cb aa bby aby асу be cc aa aby асу be bb buy cat cb cc число (i H 3! 6 C—2)! / 3+2-' ^ 6 \ 2 32=9 Введение в комбинаторику см. [Netto, 1927], [Riordan, 1958], McMahon, 1960] и [Wellnitz, 1965]. ® 1.6.2, БИНОМИАЛЬНОЕ РАСПРЕДЕЛЕНИЕ Пусть р — это вероятность «успеха» в данном опыте, q = 1—р — вероятность «неуспеха», тогда вероятность того, что в п опытах «успех» наступит ровно х раз (неуспех—(п—л') раз), определяется следующим выражением: х\(п — х) *дп~* Ч A.158) при х = 0, 1, 2, ..., п. Выражение биномиальное распределение происходит из биномиального разлооюения -*=l при p+q=\. A.159) Примечание. Мы здесь используем не я, ар (и q) как параметры и р (и q) как оценки относительных частот. 159
Это распределение, открытое Якобом Бернулли A654—1705) и называемое также распределением Бернулли, основано на следующих предположениях: 1) опыты и результаты опытов независимы друг от друга; 2) вероятность события в каждом опыте остается постоянной. Это очень важное дискретное распределение применяется тогда, когда повторяющиеся наблюдения имеют одну альтернативу. Так как х может принимать только некоторые целые значения, вероятности существуют только для положительных целых значений х (рис. 28). Параметрами биномиального распределения являются пир. Среднее значение: \i = пр, A.160) дисперсия: а2 = пр A—р) = npq. A.161) Выражения A.160 и 1.161) справедливы для абсолютных частот; для относительных частот верно |д> = р и а2 = pqln. Биномиальное распределение симметрично при р = 0,5; если р <С 0,5, то оно более пологое справа, а если р > 0,5, то оно более пологое слева. Из выражения асимметрия = _ я — Р A.162) следует, что для больших значений стандартного отклонения а асимметрия очень мала. Если надо рассчитать отдельные вероятности р (х) (см. пример 2t с. 164), то удобно воспользоваться рекуррентной формулой ..P(X). A.163) 0,2- 0 2 468'024 6 L Рис. 28. Биномиальные распределения для я=8 и различных р-значений. Так как Р @) = qn при заданных qnh легко рассчитывается A.158), то далее имеет место РA) = А . jL./>@); р B) =2—1. -^••P(l) и т.д. 1 <7 2 (/ 160
Таблицы приводятся в [Romig, 1953], [Harvard Univ. Сотр. Lab., 1955], [Weintraub, 1963] и [Natl Bur. Stds, 1950]; табл. 33 содержит избранные значения вероятностей для биномиального распределения (см. примеры 1 и 2). Для многих случаев достаточен метод, предложенный в [Jowett, 1963] (см. пример 2а), который основан на таблицах F-распределения: В области 0,001 < Р < 0,10 используется интерполяция по A.141, 1.142). Выборки из биномиальной генеральной совокупности, рассматриваемые в 4 и 6 главах, сравниваются с помощью так называемого критерия для таблиц сопряженности 2x2 (при двух биномиальных распределениях) и с помощью k • 2 — входового — %2-критерия (при нескольких биномиальных распределениях). Аппроксимация биномиального распределения нормальным распределением При npq > 9 биномиальное распределение хорошо аппроксимируется нормальным распределением со стандартной переменной г (см. примеры 4 и 5): J^L A.165) Доверительные границы для биномиального распределения подробнее будут рассмотрены в разделе 4.5 (с. 304—318). Очень удобные номограммы функции распределения приведены в [Larson, 1966]. Аппроксимации рассмотрены в [Gebhardt, 1969]. Примечания 1. С помощью A.163) может быть построен графический критерий: если нанести значения Р (х + \IР (х) против 1/(х + 1) и точки лежат на прямой линии (см. гл. 5), то распределения являются биномиальными (см. [Dubey, 1966] и [Ord, 1967]). 2. По инициативе Р. А. Фишера Мостеллер и Тьюки [Mosteller, Tukey, 1949] предложили биномиальную вероятностную бумагу, которая наряду с графической оценкой биномиальных вероятностей (в особенности оценкой доверительных интервалов относительных частот, а также сравнением двух относительных частот) позволяет непосредственно определять ^-вероятности и отношения дисперсий F. Относительно биномиальной бумаги см. библиографию, разд. 7. Подробности следует смотреть в оригинальных работах [Gebelein, 1953], [Schindowski, Schiirz, 1957], [Stange, 1965], а также в соответствующих главах книги [Wallis, Roberts, 1962]. 3. Функциональные параметры и явные параметры. Параметры, которые дают информацию о том, где на числовой оси лежат значения случайной переменной (fi,"jx) и как плотно они сосредоточены (а2), Пфанцагль (Pfanzagl, 1966] назвал функциональными параметрами. Они представляют собой функции явных параметров в формуле для плотности распределения. Так, для биномиального распределения: пир — явные параметры; |и = пр и о2 = пр A — р) — функциональные параметры, так как они выражаются через явные параметры» Плотность вероятности для нормального распределения содержит также два параметра: \х и а2, которые одновременно и функциональные параметры, что уже было указано выше. 6 Зак. 93Q 16J
>ООЮ СМСМЮЮСМСМ _ _ )lOO(N —« CO<-M<N<0 — Ю СО ООО ОООО ЮС OQO ЮЮЮЮ CMC - --.-_ -„--.,..-., . - - - - ^ - „ ЮОЮ CM t>- h- СМ СОЮ^-ЮСО СОЮ—«—н Ю СО —• СЛ СО —« СО СЛ ~н OU5C_SN СМ Ю СМ —<СОСО~-« ОСМСОСМО О^СОСО—<О ООСМСОСМОО ОО—'СМСМ О*О*О* О*О*О*О* О*О*О*О*О* 0*0*0*0*0*0* 0*0*0*0*0*0*0* 0*0*0*0*0* Ю О CO " —< -^ ЮЮЮЮО ) "^ •—* •—* СЛ Г4*» CD —•* ) СО СП СЛ О. СО О ^ О CN CO CM О ""> Ю СО Ю С4 00 —« О О —' СЧ СО *—' t-- O> О CM —< CD CO CNKNO00C NlflOOCOOOOO Ю t*- ^ »_-< С I—" 00 *-" СЛ С о о<мс - 0*0*0*0*0*0*0* 0*0*0*0*0* ооо оооо ооооо ООО ОООО СО СО СО СО СО 00 СЧ СО ^ 00 CM SCOOlOMCft*H ОСОСОСОЮ ООО СО <М 00 tJ« С-Г> Ю Ю СО Ю М^ЮОФО СО СО —' СО 00 СО тР 00 О —^ О СО СОООСО ^СОООСО CM^t"*lOCM b-in^COt^—• -^ СО —« h- CO СО О СМСОСОСЛСУ) СОтР—I (NT^CMO —*С0С0*-'О ОСМСО<_МОО 0—«COCN^OO О^СМСМ-^ ООО 0 0*0 0* 0*0*0*0*0* 0*0*0*0*0*0* 0*0*0*0*0*0*0* 0*0*0*0*0* ЮОЮ С0С0О>0- ЮЮЮЮО О Tf ^ ^-< ОО СО ^SOW^lOOO ОООЮОСМ СМЮСМ TfCOOOCM 00^О«Ю СО СМ СО "-• 00 Ю inCOOOlO-OO'—< CfJ^OOh-^ СМЮС^ t^--^CO^ t-- CO —« —-i »— 'H'HOOOO^O h-^ <N CO СГ> CM О "^OOCDCO4* rf^f^ CM ТГ CN О «-hC0C0*—O *— CO CO i-» О О О CM CO CM О О О СО^СМСМ—* О*О*О* О*О*О*О* ОО*О*О*О* 0*0*0*00*0* 0*0*00*0*0*0* 0*0*0*0*0* S i s 5 00 СО l>- CM (N СО <_М —" ООСЧ "- О. СГ) ^ —« ^ а> сосмсмо^о со ^ см ю со ю , _- t--СО СЛ СЛ СМ СО — ОО ^ Ь- ~) О О ^-«ss * "¦* __? ^ СМ О Ю Г!1 ¦>—н сосмсмсо^о со со см —< оо«—¦ о Ю —*СОСО—'ОО OCMCOCNOOO ооо* оооо* о*о*сГо*о о*о*о*сГоо* 0*0*0*0*0*0*0* о*оооо s о V/ ) О С J О < > CN С оо СО —« о -нсо . Г"» О—' тН—* h- СЛСМ fCOCN "^ —н СО h- О СОСООООСЧО '-«ОСМООЮ-^О 00 Tf — СМ СЛ '«—' О СМ "^ СМ О О -СООО^ОО ^СООО-нООО OCMCOCNO ООО О О* О* О* О* О* О* О* CD* CD* CD* О* О О* О* 0*0*0*0*0*0*0* ООООО _ . , СОЮ—«СМЮСМГ ОО CD СО СМ ОО СМ ?¦"-• СМ ^Ф ^О СЛ CD С СОСОООО<МО —«ОСМООЮ—'С —¦«СОСО'-чОО »-• СО СО —* О О < юо ю сг>а> СМЮСМ --ч^^ согсо смем эсо со ю t^-ел со о оосооос (NC0NOOO —'СОСМ'-нОС Ю Ю Ю О 1>- оо со^ _, СО —< О СО с (?} f^. ^_Q g\J g\^ ^< ^_н t—( CM '~- ^* C»- — —- -— юсоо ^^-o co^cnoo csIcocnooo -ww^boo ^coco^-«< о о o* o*o*o o* 0*0*0*0*0 0*0*0*0*0*0^ 0*0*0*0*0*0*0* 0*0*0*0*0* *-"< csj оо а. rj^ ю -и см со ю *—• ю—^ о COCi^OO—ОО C4C0CNOOOO ооо оооо ооооо оооооо ооооооо ооооо I free о о о" 5CM ^?Ю ОЮЮЮЮ ГЮСЧ| CM ОО t4- »—'О СО—нОО СМ СО СЛ — О ^СЛСОС cocooo юсоооо ^co2 СМ rtinN CM »— CM Ю O COCOO ^ -_ *-нС0СМЮЮ^О @OSN05 i ^^ {**--* ^75 CO ***^ ^Л €_) ^^ <^^ cO O^ t™"* Cl^ ЭО Г-.СЛ^-.^'ООО CM СЛ OCO —« ? о со со •—• о ооо cococnoo ооо оооо ооооо оооооо ооооооо ооооо CD CD C5 CD *—* СО СО СО ^^ r^c?.^< СО—нООСОО см ооо „_« оо —« см ^ см о СО-^О NCNOO -hO СОООС • О О СО CN •* С оо tьсм с ОО Tt 00 ^ О О СО CN •* С союа.—*ооо t--ь-см с ЮСОООООО т}< СО *-ic ооооо S I со* со юою Tt"^4—<*-* \n\d\r^\ao cocorh-^c ОСЛО ЮСООО «—'N^OO N О W О С СЛОО 00 —< О О ОО'-'ООО Г^-С^ООС ооо оооо ооооо оооооо ооооооо ооооо -—< 00 ~* СО "^ СО О СОООСООО ООО< ОСЛО ОСЛОО ОООООО •—• 00»—" < СО»—'О l^-CMOO СО СО О О О Ю '" — " О^ ^D CD СЛ CD ^D CD СЛ CD ^D ^D CD СЛ o*o*o* o*o*o*o* oo*o*o*o* o*o*o"o*o*o* ooooo O—'CM O—h(NCO О—« ^ <N CO "^ ЮСО - О —^
^КоЬ *—«CDOOCOCOCFii—1 CQO^NfOcQ сОЮО OcoO'-'t^—'OcoC —<ОО О О — СМСМ СМ'-* О С ._.„ ооосЪем —~<*-чемс}>ооо ltv-0^tlCOCO'^OtN^CM —<O>00t>--tOCOiOt>-00CJ5'—« )*—«t-^CO-Tp^COt--»—'О ОО"^}4'—'О^О*—«"tf'OO )OO-(N<N-OOO OO ©—< CM CM CM —• OO О —' CMCN—• OO О OO—' CMCNCM—< ООО О О О —« CN CM —' О О О О ооо ¦^ см со со с j^. t4^ »-* со <: SS8 Bl oS?J§gS^2§§ §§o8§©28g?3 ^? © О CO CO Ю t4-. GO С OOO О «-< CM CM '—' С ©"о*4©" - rf CM CO гИ — т^ 00 CO ~• Ю tO Г^- CM С- CO O5 CM CO Ю О JOCO-^CiOOCMCTi-HO C0(MiO(MN00Q0'-<'*OO ] €~} •—i t44»* i>h »-M ^^ f^ ^^ f^ »*^i t*^ ^>^ lO CO tO CO CM r i' C]5 <"м,д ------ OOOO OO»—«CMCM1—'OOOOO О —< —i —« t^- 00 Q) CO CO CO О 00 t coю^^N@ -HOOOiCOfNCOin^OOO OO — CMCM-^OOOOO cooo -нО OO 58 ococM со h- ю —<-~«t O-t^CO^COC tOOCDlOOO^'—Ю( o^o'o" tO CM O ^СОСОООЮЮО rflOCOCDNNlN О—'СМСМ-нОО оо—«сосоосмсоа>—«oo CMCMCOCOOOCOOOOO О'—СМСМСМ*-'OOOOO ^OO OCO^OCOCMOC OOO «h(NCO(NOOOC OCMCOCM^—'OOOC 888 OOO СМ О О (N »-« Ю 00 С ^ см см со со со г" COOONCD^l Tf4 ^t4 C5 CO »""• ^* t-*-COCM-^00CO _ _ OCOOOOOCNOOOOO ^CMOOCMOOOOOOO -88 о ~ 8! tO b- СО СГ> Ю СО С CM ^f t4^ СО СО СМ С t-» со со со'—< о с см со см о о ос ) СО ОСО < )ооюо< > o< >o с ;o < >o с J*— OOOO ¦«00CM'-«OOOOOOO ©"оЪЪ^оооЪЪ"© CM < ЮСО oo^hco со со rt^ 5^00 ОО ОС э^о о о ос ч* «**« СМ СО "^ СО —1 < - - t>- CN "Г" Ь < " 3 00 t-Tt< О < 5 СО — < емю—<оо ^-'OOO ОООО * OO ЭОООО CO CO —OOOOO О о о" о" о* о" о" о* <э о" о" о" о" о" о" о" о" о* о" о* о" о* о" о" о* о" о" о* о* о* о" о* о" о* 5 О Tt* СОЮ" > О COQ5 »-н I ооо со см о < о" о" о" см too» ь. соо < о оосм t ' СО CD CO < СО СМ О С юсоооо о о о о о о о о о о о" > О h-CO СО — < ' ~ СМ ч*1 СМ <~ ' ^о8! ю< СОС оо с . _ о ос >о оос > оо ос т}ОО оооо )ОООО 881 оос о о ооо о ос ооо оооооооооо ЮСО1>- О-ч О »- <М СО ^ Ю СО 1^ 00 О О « СМ СО 'Ф Ю СО t>- 00 СП О о* I од 6* 163
4. Номера выигрышей в рулетке й Лото уже Для Средних значений п ЭссфоШб аппроксимируются нормальным распределением. Для больших п (п ~* оо) они в процентном отношении равны; частоты отдельных номеров выигрышей тогда сильно рассеяны (они лежат, согласно A.161), очень далеко друг от друга). Тенденции к абсолютному выравниванию нет даже при полностью одинаковых шансах—рулетка, лото (разве равные шансы в социальной области не приводят к неравенству?). Примеры 1. Чему равны вероятности при трехкратном бросании идеальной монеты получить: а) три раза решку; б) два раза решку и один раз герб? а) ^зСзD-K (i)°=b | -1 = 1 = 0,125 / /142/141 11 о также замеча- б) р = 2С21—\ —) =3. J-.-L=± = 0,3751 ние под табл. 33 2. Машина производит 20% бракованных карандашей. Каковы вероятности среди четырех случайно выбранных карандашей обнаружить: а) ни одного бракованного карандаша; б) один бракованный карандаш; в) максимум два бракованных карандаша? Вероятность появления брака р =0,2, вероятность появления небракованного карандаша q = 1—р = 0,8: а) Р (нуль брака) = 4С0 @,2)° @,8L = 0,4096; б) Р (один случай брака) = 4СХ @,2)х @,8K = 0,4096; в) Р (два случая брака) = 4С2 @,2J @,8J = 0,1536, Р (макс, два случая брака) = Р (нуль брака) +Р (один случай брака) + Р (два случая брака) = 0,4096 +0,4096 + 0,1536 = = 0,9728. По табл. 33: здесь п=4, х пробегает значения 0, 1, 2 при р = 0,2. Соответствующие вероятности могут быть непосредственно прочитаны. По рекуррентной формуле: р @) = 0,8* = 0,4096 РA) = ± . -L-0,4096 = 0,4096 1 4 Р B) = -L . -L. 0,4096 = 0,1536 РC) = — .—-0,1536 = 0,0256 3 4 РD) = — .—.0,0256 = 0,0016 Контроль 2/>=1>0000 164
2а. Для п *= 4 и р *= 0,2 мы ищем йероятность йо мекьшей мере Трех случаев брака: Z—-)=P(/?4i6>6,00). Вероятность этого значения F F,00) для v± — 4 и v2 = 6 приходится интерполировать: ^- 4,53 (а = 0,05); m = 2; k = ^~6'°° - 0,1353 f? = 6,23(а-0,025); P = 0,025-2°.1353-0,0275. Сравнивая с точным значением, равным 0,0272, приходим к выводу, что аппроксимация хорошая. 3. Что вероятнее: а) появление по крайней мере одной шестерки при 6 бросаниях идеальной игральной кости или б) двух шестерок — при двенадцати бросаниях? а) Р (непоявление шестерок) =6С0 (-g-J (-g-J Р (появление одной и более шестерок) = 1—6^o(-g-) (-F-) ^0,665. б) Р (появление двух и более шестерок) = 1—d2 С"о (~^-) X X (|I2 + 12 Сх Щ1 D)П - 1—@,1122 + 0,2692) - 0,619. Итак, событие а) вероятнее, чем событие б). Для оценки вероятности можно было бы воспользоваться табл. 33 при р' = 0,15 вместо р = 0,166 ~ 0,17. 4. Идеальная кость бросается 120 раз. Какова вероятность того, что цифра 4 появится восемнадцать или менее раз? Вероятность того, что четверка появится 04-18 раз, определяется выражением Поскольку вычислительная работа здесь весьма велика, воспользуемся аппроксимацией с помощью нормального распределения (npq = 120 • 1/6 • 5/6=16,667> 9). Если мы будем рассматривать числа как непрерывную переменную, то область от 0 до 18 четверок включается в область от —0,5 до 18,5 четверок, т. е. х = пр= 120-1/6=>,20 и s^Vnpq^V 16,667 = 4,08. Значения — 0,5 и 18,5 переводим в стандартные единицы: z = (x—*)/s, для —0,5 получаем (—0,5—20) / 4,09 = —5,01; для 18,5 получаем A8,5—20) / 4,09 = —0,37. Искомая вероятность определяется как площадь под нормальной кривой между z = —5,01 и z = —0,37. Р = (площадь между z = 0 и z = —5,01) — (площадь между z = 0 и z = —0,37) = 0,5000 — — 0,1443 - 0,3557. 165
Из этого следует: если мы рассмотрим повторяющуюся выборку Из 120 бросаний, то четверка в 36% случаев будет появляться 18 раз и менее. 5. Предполагается, что кость неидеальна. В 900 бросаниях четверка появилась 180 раз. Соответствует ли это нуль-гипотезе, согласно которой кость идеальна? Согласно нуль-гипотезе вероятность появления четверки равна Тогда /2р = 900-1/6 = 150 и ~V~npq =1/900-1/6.5/6 = 11,18; Двусторонний доверительный интервал на 1%-ном уровне дает Р - 0,0074. Нулевая гипотеза на основании этой серии бросаний отклоняется; кость нельзя рассматривать как идеальную. 6. Нас интересует число мышей-самок в помете из четырех мышей [D a v i d F. N. A Statistical Primer. Ch, Griffin, London, 1953, p. 187], Имеется 200 пометов подобного вида. Т а б л Число Число и ц а 34. Число самок в помете пометов (общее мышеи-самок число 200) в помете из четырех 0 15 мышей 1 63 2 66 3 47 4 9 Предположим, что в этой выборке вероятность рождения самки постоянна, не зависит от числа уже родившихся самок, два помета независимы друг от друга. Тогда можно рассматривать данный процесс как случайный и по выборке оценить параметры генеральной совокупности. Будем считать, что теоретическое среднее равно вычисленному среднему; тогда Н. = л/г, A.160а) ~ среднее значение общее число индивидуумов ' - _ 0-15 + Ь63 + 2-66 + 3.47+4-9 = Q 4g5 Р~ 4-200 ~~ ' Мы знаем, что если предположение о биномиальном распределении выполняется, то вероятности рождения 0, 1, 2, 3, 4 самок могут быть определены из разложения бинома @,535 + 0,465L, откуда для 200 пометов получаем: 200 @,535 + 0,465L = 200 @,0819 + 0,2848 + 0,3713 + 0,2152 + + 0,0468) = 16,38 + 56,96 +- 74,26 + 43,04 + 9,36. Сравнение наблюдений с ожидаемыми значениями приведено в табл. 35. 166
Таблица 35. Сравнение ожидаемых значений с наблюдениями табл. Число самок в помете Число пометов: ' наблюдаемое ожидаемое 0 15 16,38 1 63 59,96 2 66 74,26 3 47 43,04 4 9 9,36 34 2 200 200 В разд. 1.6.7 (с. 182) мы детальнее остановимся на подобном примере и проверим, выполняется ли предположение о распределении Пуассона, т. е. простому или комбинированному распределению Пуассона следуют наблюдения. 1.6.3. ГИПЕРГЕОМЕТРИЧЕСКОЕ РАСПРЕДЕЛЕНИЕ Если производится выборка «без возврата», то вместо биномиального распределения следует применять гипергеометрическое распределение. Этим распределением широко пользуются в связи с задачами контроля качества. Урна содержит 5 белых шаров, W = 5, и 10 черных шаров, S = 10. Какова вероятность того, что в выборке из 5 шаров окажутся два белых, w = 2, и три черных, s =3, шара? Эта вероятность определяется следующим выражением: P(w из W9s из S) = - w w+s I A.166) при 0 < w < W Отсюда получаем и 0<s<S. -0,3996, РBИз 5 белых шаров и Зиз 10 черных шаров) =^~ __ E1/31-2!) A01/71 .3!) 5-4-10.9-8-5-4» 3-2.1 ~~ 151/101.5! ~~ 2-1-3-2-1-15-14 -13- 12-11 т. е. вероятность примерно 40%. Общая формула для выборки объемом пг + п2 = п и генеральной совокупности Nx + N2 = N среднее значение: дисперсия: о2=п C) Ni ^пт=пр9 —/?) N—n N-\ " A.167) A.168) A.169) 167
Если N очень велико, то распределение практически идентично биномиальному. Дисперсия соответственно также стремится к дисперсии биномиального распределения -~1 — — ~1 ДЛЯ N>AZ Ь п — 1 N ) Обобщенное гипергеометрическое распределение (полигипергео- метрическое распределение): Г1) И •••(*) Р{пъ п2, .... tiblNiN» ..., #0=V<V* KnkJ A.170) определяет вероятность того, что в выборке объема п будут точно п19 я2, ..., пк наблюдений признаков Лх, Л2, ..., Ah> если в генеральной совокупности объема N частоты этих признаков равны N±, N2J ..., Nk и 2 Nt = Л^ и 2 л* = л. Параметры (для пг) определяются следующими выражениями: среднее значение: \it = n -~; A.171) дисперсия: 0? = лр, A— р,) —^ . A.172) Это распределение наряду с другими применяется в области контроля качества и для оценки неизвестного объема N популяции (например, наличие и состояние дичи): Nx особей поймано, промаркировано и отпущено; затем поймано п особей и определено число промаркированных (пх). Тогда справедливо N ж п N-Jn^ (см. также [Jolly, 1963], [Southwood, 1966], [Roberts, 1967], [Hanson, 1968], [Manly, 1968] и [Robson, 1969]). Примеры 1. Предположим, из 10 студентов 6 изучают биохимию и 4 — статистику. Какова вероятность того, что выборка из 5 студентов содержит 3 биохимиков и 2 статистиков? РC из 66., 2 из4ст. 4ст.) в+4С3+2 101/5!-5! 6-5-4.4.3.5-4-3-2.1 . = J?<L^ п 4762 3-2.1.2-Ь10-9-8-7-6 42 Вероятность примерно равна 50%. 2. Наугад выбраны 6 чисел из набора от 1 до 49. Какова вероятность того, что будут выбраны 4 правильных числа (лото)? 6\,43 из в, 2 „з 44-Iii U 168
Для решения задач подобного типа следует пользоваться табл. 31 и 32: Р~ 13»545-103 с-0,967-Ю-3, т. е. примерно 0,001. 13,984-Ю6 * * Вероятность выбрать по крайней мере 4 правильных числа имеет порядок 0,1%. 3. Генеральная совокупность из 100 элементов содержит 5% бракованных элементов. Какова вероятность того, что в выборке из 50 элементов окажется: а) нуль бракованных элементов; б) один бракованный элемент? а) РE0 из 95;0из 5) = <*»•*> 95'-5!-50!-50! 95'-501 96+бСбо+о 50!-451.51.0!.100! 451-100! аа 32) б) РD9 из95;1 из 5) = 1,1962- 10*в. 9,3326-Ю1*7 «^ 95Ь5Ь50Ь5Ш 95+5С9+1 49!-46!-4!-1!. 100! ._95!50Ь501__ 49!-46!. 100! 4. Пусть в течение года в 10 номерах ежедневной газеты (всего 52 недели) помещается некоторое объявление. Тогда вероятность того, что читатель в 15 произвольно выбранных номерах не встретит этого объявления, равна: ( Л \ i W—A\ Р(а из A, w из №)= ^ „Л""" ; или W 10 \ / 52 — 10 \ / 42 из 10; 15 из 52) = -^ ' v '""" ' ч liJ' 42М5!-37! 15!-27!-52! (напомним, что (»] = 1) lg 42! = 51,14768 lg 15! = 12,11650 lg 37! =44,13874 106,40292 lg 15! = 12,11650 lg 27! -= 28,03698 lg 52! = 67,90665 108,06013 JgP = 0,34279 —2 P = 0,02202 ~ 2,2%. 169
Таким образом, вероятность встретить хотя бы одно объявление равна 98%. Примеры 2 и 3 полезно в порядке упражнения пересчитать с помощью десятичных логарифмов от факториала (табл. 32). Задачи подобного типа решаются значительно быстрее с помощью таблиц [Lieberman, Owen, 1961]. Номограммы с доверительными границами опубликованы в [De Lury, Chung, 1950]. Ann p^o ксимации (см. также с. 179) 1. При больших Nx и N2 и сравнительно малом п (n/N<.0,l; N > > 60) можно гипергеометрическое распределение аппроксимировать биномиальным распределением р — Nx/ (Nx + N2). 2. При пр > 4 хорошую аппроксимацию дает нормальное распределение [|х = пр; а2 = npq ((N—NJ I (N— 1))]: "'"Т А, ' AЛ73) 3. При малых р, больших п и очень больших N (п I N < 0,05) гипергеометрическое распределение аппроксимируется распределением Пуассона, которое рассматривается в следующем разделе (X = пр). 4. Биномиальное распределение и распределение Пуассона при а2 = npq ^9и р = п • р = %^9 с вполне достаточной точностью аппроксимируются нормальным распределением. # 1.6.4. РАСПРЕДЕЛЕНИЕ ПУАССОНА Если в выражении A.158) принять пр = Хя при постоянном X увеличивать п(п-+- оо ), то биномиальное распределение со средним значением пр — % перейдет в так называемое распределение Пуассона с параметром X (X также будет средним значением этого распределения.) Распределение Пуассона было предложено французским математиком С. Д. Пуассоном A781—1840). Оно справедливо тогда, когда среднее число событий является результатом очень большого числа возможных исходов с очень маленькими вероятностями этих исходов.Хо- рошим примером является радиоактивный распад. Из многих миллионов атомов радия в единицу времени распадается очень маленький их процент. Существенно, что распад есть случайный процесс и что распад отдельного атома не зависит от числа уже распавшихся атомов. Распределение Пуассона имеет весьма большое значение. Оно используется для решения задач исчисления относительно редких, случайных взаимно независимых событий в единицу времени, длины, площади и объема. Говорят также об изолированных событиях в континууме. Примеры этого дискретного распределения: распределение изюминок в булке с изюмом, дрожжевых клеток в суспензии, числа опеча- 170
ток на страницу, нарушений изоляции по длине шнура или числа повреждений поверхности на плоскости стола; последовательность прилета самолетов на аэродром; число внезапных бурь в данной области; число телефонных вызовов в единицу времени; число электронов, которые улетают с нагретого катода в единицу времени; число поломок в автомобилях большой воинской части; число случаев брака; число транспортных средств на дорогу в единицу времени; число отказов в сложном механизме. Все это — на единицу времени или пространства. Если вероятность — непостоянная величина или события зависимы, то это приводит к отклонению от распределения Пуассона. Если эти условия соблюдаются, то — для приведенных примеров — следует ожидать выполнения распределения Пуассона. Самоубийства или промышленные аварии в единицу времени не следуют распределению Пуассона, хотя они могут рассматриваться как редкие события. В обоих случаях нельзя говорить о «равных шансах для каждого», существует различие относительно возможностей аварии или самоубийства. Представим себе булку с изюмом, разделенную на маленькие кусочки равной величины (выборки). Вследствие случайного распределения изюминок нельзя ожидать, что все кусочки будут содержать их одинаковое число. Когда среднее число X изюминок, содержащееся в этих кусочках известно, тогда распределение Пуассона задает вероятность того, что любая взятая выборка (кусочек) содержит равное x(x = 0,l, 2, 3,...) число изюминок. Иначе говоря, распределение Пуассона определяет, какая часть A00% • Р (х) %) длинной серии последовательных выборок будет содержать точно 0 или 1, или 2 изюминки: P(x\X)^P(x)^?j^-, A.174) Х = 0, х = 0, 1, 2, ... е = 2,718... —основание натурального логарифма; X — среднее значение; х = 0, 1, 2, ... — точное число изюминок в данной выборке, х\ = 1 • 2 • 3... (х— 1) х (например 4! = 1 • 2 • 3 • 4 = 24). Распределение Пуассона определяется дискретной функцией вероятности A.174); оно полностью характеризуется параметром X и выражает плотность случайных точек внутри заданного временного интервала, на единице длины, площади или объема. X есть одновременно среднее значение и дисперсия а2 = X A ), а2 при больших п равна X [ср. а2 = npq, пр = X, q = 1—р = 1—JJ# Этот параметр оценивается по формуле (для q сы 1) Х^п- р. A.175) 171
Таблица 36. Значения е -*• для распределения Пуассона 0,01 0,02 0,03 0,04 0,05 0,06 0,07 0,08 0,09 0,9901 0,9802 0,9704 0,9608 0,9512 0,9418 0,9324 0,9231 0,9139 0,1 0,2 0,3 0,4 0,5 0,6 0,7 0,8 0,9 0,9048 0,8187 0,7408 0,6703 0,6065 0,5488 0,4966 0,4493 0,4066 к 1 2 3 4 5 6 7 8 9 0,367879 0,135335 0,049787 0,018316 0,026738 0,022479 0,039119 0,033355 0,04234 10 11 12 13 14 15 16 17 18 0,04540 0,04670 О,О56144 О,О5226О 0,068315 0,063059 0,04125 0,04140 0,О71523 19 20 21 22 23 24 25 30 50 О,О856ОЗ О,О82О61 0,097583 0,0*2789 0,091026 0,010378 0,0^139 О,113936 0,021193 = 0,0001234-0,4493.0,9512 = 0,0000527 Если для дискретного распределения отношение дисперсии к среднему значению лежит вблизи единицы, — скажем, между 9/10 и 10/9, — то его можно аппроксимировать распределением Пуассона вплоть до больших значений переменной х. Если справедливо s2 < x, то в выборке можно применять биномиальное распределение; в противоположном случае (s2 > x) можно использовать так называемое отрицательное биномиальное распределение (см. [Bliss, 1953]). Величины е~% обычно не надо вычислять, потому что для ряда значений Я они табулированы. Так как е~(*+#+*) = е~х • е~у • е~~2, мы найдем с помощью табл. 36, например, в~5>23 = 0,006738 • 0,8187 • 0,9704 = 0,00535. Табл. 36 одновременно является таблицей натуральных антилогарифмов. Пусть, например, х = —3, тогда е~3 = 1/е3 = 1/2,718283 = = 1/20,086 = 0,0499787, т. е. In 0,049787 - —3,00. Пример Радиоактивный препарат дает в среднем 10 импульсов в минуту. Какова вероятность получить 5 импульсов в минуту? p = j^sj0^= 10M.S4.10-- =jjj=, О!оз78з ^0,04. 5! 5-4-3-2-1 120 Итак, примерно в 4% случаев будут регистрироваться 5 импульсов в минуту. Таблица 37. Распределение Пуассона для малого параметра Я и для х=0; 1; >1 Р(х) Для х = Для х = Для *> 0 1 1 0 0, 0, 0, ,1 905 090 005 0,2 0,819 0,164 0,017 0, 0, 0, 1 368 368 264 0, 0, 0, 2 135 271 594 172
0.2 Т 0,2 I I ... 8 10 12 Л-2 Распределение Пуассона 1 — дискретное асимметричное распределение имеет положительную асимметрию 1/Т/Я, которая с ростом Я, стремится к нулю, т. е. с ростом X распределение становится более симметричным. 2 — отдельные вероятности при Ж 1 с ростом х уменьшаются; при X > 1 — вначале увеличиваются, затем уменьшаются, 3 — максимум распределения приходится на ближайшее целое число, меньшее Я,. При четном целом X имеются два равных максимума вероятностей. Например, если число опечаток на газетную страницу следует распределению Пуассона с Х=0, 2, то из 100 страниц в среднем 82 страницы будут без опечаток, 16 — содержать одну и 2 — больше чем одну опечатку (табл. 37). Табл. 38 показывает, что из 10 000 страниц р 29 р еделение п . в среднем только одна будет иметь v 4 опечатки. Для случая, когда а) X — велико и б) х = Я, справедлива формула Стирлинга: 0 8 Ю 12 0,4- 0,2- 0 2 6 8 10 12 ~]/2rik V Р(Х)~ 0,4 A.176) 0,4 Например, Р (х = X = 8) ~ -^ = 0,141; точное значение из V* табл. 38 равно 0,1396. Для расчета последующих значении используется рекуррентная формула P(x+l) = -h-p(x). A.177) х + \ Подробнее об этом распределении см. монографии [Haight, 1967], [Molina, 1945], [Kitagawa, 1952] и [Defense Systems Dept., 1962]. Примеры 1. Чему равна вероятность того, что из 1000 человек в данный день родились: а) ни одного, б) один, в) два, г) три человека? Так как q = Ш ^ 1 • можно X оценить как Х = пр= 1000-^: = 2,7397 -2,74. 365 173
Таблица 38, Распределение Пуассона Р(х) « з для избранных значений X. При увеличении Я .распределение Пуассона приближается к нормальному распределению х \. 0 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 0 0 0 0 0 0 0,2 ,8187 ,1637 ,0164 ,0011 ,0001 ,0000 0 0 0 0 0 0 0 0,5 ,6065 ,3033 ,0758 ,0126 ,0016 ,0002 ,0000 0 0 0 0 0 0 0 0 0,8 ,4493 ,3595 ,1438 ,0383 ,0077 ,0012 ,0002 ,0000 1 0,3679 0,3679 0,1839 0,0613 0,0153 0,0031 0,0005 0,0001 0,0000 3 0,0498 0,1494 0,2240 0,2240 0,1680 0,1008 0,0504 0,0216 0,0081 0,0027 0,0008 0,0002 0,0001 0,0000 5 0,0067 0,0337 0,0842 0,1404 0,1755 0,1755 0,1462 0,1044 0,0653 0,0363 0,0181 0,0082 0,0034 0,0013 0,0005 0,0002 0,0000 8 0,0003 0,0027 0,0107 0,0286 0,0573 0,0916 0,1221 0,1396 0,1396 0,1241 0,0993 0,0722 0,0481 0,0296 0,0169 0,0090 0,0045 0,0021 0,0009 0,0004 0,0002 0,0001 0,0000 К у/ yS X 0 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 = е-* = е-2-74—0,06457~ 0,065; = te-x ~ 2,74-0,065 = 0,178; 2! 0,244. />(х^3) = 3! 2,743 • 0,065 ~ = 0,223. Если имеется выборка из 1000 человек, то вероятность того, что в определенный день не родился ни один из них, равна примерно 7%; вероятности того, что родились один, два и три человека соответственно равны 18, 24 и 22%. 174
С помощью рекуррентного соотношения A.177) этот расчет можнб упростить: Р @) = (см. выше) ~ 0,065; РA)== -^1.0,065 = 0,178; Р B) = iiZi. 0,178= 0,244; РC)== Mi. 0,244 = 0,223. 3 Если помножить эти вероятности на /г, то получим среднее число человек в выборках размером в 1000 человек, которые родились в определенный день (п — число выборок), 2. Вероятность того, что пациенту противопоказана некоторая инъекция, равна 0,001. Чему равна вероятность того, что из 2000 пациентов а) точно три б) больше двух пациентов не воспримут этой инъекции. Так как q = 0,999 ~ 1, получаем X = п • р = 2000 • 0,001 = 2. Р (х пациентов не воспримут инъекции) = ¦—= ; 23.е~2 4 а) РC пациента не воспримут инъекции) = ———= —=0,180; е2=7,389; о! об* б) Р @ пациентов не воспримут инъекции]= ¦—-— ="Т» 21 e~* 2 Р A пациент не воспримет инъекции) = = —; 22 ? — 2 2 Р B пациента не воспримут инъекции) = -——== —; Р (больше чем 2 пациента не воспримут инъекции) = 1—Р @ или 1, или 2 пациента не воспримут инъекции)=1 —A/е2+2/е2+2/е2) = 1 ———0,323. Если имеется большое число выборок по 2000 пациентов, то с вероятностью примерно 18% три пациента и с вероятностью примерно 32% больше чем два пациента не воспримут этой инъекции. Расчет всей задачи а) с помощью биномиального распределения был бы затруднителен: Р C пациента не воспринимают инъекции) == 2000 С3 • 0,0013 X X 0,9991997. Примечание. Ответ на вопрос, как велико должно быть значение К9 чтобы с вероятностью Р результат проявлялся по крайней мере один раз: 175
ДЛЯ р = 1_е A.178) = 1_р, in е-* = In (I—Р), X = —2,3026 • lg (I—P). A.179) Результаты расчета сведены в таблицу. Например, для Р = 0,95 Я 3 получаем Д о в е р Хс и т -3. р 0,999 0,99 0,95 0,90 0,80 е л ь н ы е 6,908 4,605 2,996 2,303 1,609 и н т е ] р 0,50 0,20 0,05 0,01 0,001 овалы 0 0 0 0 0 д ,693 ,223 ,051 ,010 ,001 ля среднего значения Для заданных значений X верхнюю и нижнюю границы доверительного интервала (ДИ) можно вычислить по формуле A.180) или приближенно по A.181) или найти в табл. 80 на с. 314—317 (примеры на с. 312—313). 1) 95%-ДЯ и 99%-ДЯ: п < 300: табл. 80, с. 314—317; п>300: приближение по A.181), где подставляются: а) < вместо ^ (при больших п приближение первоклассное); б) 1,645вместо 1,9600 (95%-ДЯ) и соответственно 2,5758 (99%-ДЯ). 2) 90%-ДЯ: я < 20: формула A.180) и табл. 28, с. 132 — 133; п > 20: приближение по A.181). 90%-ДЯ: 90%-ДЯ: AЛ80) A.181) В правых частях A.180) и A.181) стоят (односторонние) верхние 95%-ные доверительные границы: так, например, для х = 50 по A.180) 2 • E0 + 1) = 102, хо.05; 102 = 126,57, т. е. Я< 63,3 и по A.181) A,645/2 + У50 + IJ = 63,4, т. е. X < 63,4. Соответственно получаем также, например7 верхние 90%-ные доверительные границы: A.180: хо,ю вместо хо,о5; см. табл. 28/28а, с. 132—134), A.181: 1,282 вместо 1,654; см. табл. 43, с. 204). Табл. 80 (с. 314 — 317) служит также для проверки нуль-гипотезы к=Хх\ она отбрасывается, когда ДИ для Хх не накрывает параметр Я. 176
ф 1.6.5. НОМОГРАММА ТОРНДАЙК Эта номограмма (рис. 30) служит для графического определения накопленной вероятности распределения Пуассона, отдельных последовательных выражений типа е~х -г . Она была рассчитана Ф. Торндайк, 0,001 0,01 0,1 0,2 J 0,8 ^Г 0,9 0,99 0,999 0 0,1 0,2 QfO,5 0,7 0,9y 1,0 \ 4 S>\ 0,001 0,01 0,1 0,2 ОА 0,6 0,8 0,9 0,99 0,999 2 3 4 4 f 7 8910 Рис. 30. Номограмма Торндайк. Ордината: вероятность того, что событие х наступит с раз или больше (по меньшей мере с раз) — значение Р(х^с). Абсцисса: значение X для вероятности Р> что событие в большей серии опытов со средней частотой события X наступит по меньшей мере с раз; масштаб логарифмический. По оси абсцисс отмечены значения X; ряд кривых соответствует значениям с = 1, 2, 3, ... Ординаты, соответствующие различным значениям АГи с, определяют вероятность того, что переменная х больше с или] равна ей: Р (х > с | Я). Номограмма Торндайк используется следующим образом: 1) найдите точку Я на горизонтальной шкале, проведите перпендикуляр до пересечения с кривой с\ 2) ординату точки пересечения определите по вертикальной шкале, она соответствует Р (х^ с). Обратите внимание, что шкала ординат для лучшего считывания в области малых и больших значений Р (х^с) размечена нелинейно. Примеры 1. Машина дает около 1% брака. Какова вероятность среди 200 изделий обнаружить 6 бракованных? р *= 0,01; п = 200; % = п • р - 200 • 0,01 = 2. Точка пересечения вертикали X = 2 с кривой с = 6 соответствует ординате Р (х ^ 6) ~ 0,015. Вероятность обнаружить по меньшей мере 6 бракованных изделий равна примерно 1,5%. 177
2. Контейнер должен содержать не более 0,5% картонок с яйцами, в которых 4 яйца или более испортились. Чему должна равняться верхняя граница процента испорченных яиц, чтобы удовлетворить поставленным выше требованиям? Мы предполагаем, что картонка содержит 250 яиц и является для гнас случайной выборкой. Здесь нужно номограмму использовать для решения обратной задачи по сравнению с задачей в примере 1. Вероятность того, что в выборке из 250 яиц содержится 4 и более плохих яйца, должна быть не более 0,005, т. е. Р (х ^ 4) = 0,005. Необходимо определить допустимое среднее число плохих яиц X. Соответствующая Р = 0,005 горизонталь пересекает кривую с = 4 при % ~ 0,67. Тогда /? — искомое допустимое содержание плохих яиц определяется по формуле \ = п • р или Р = \~ Ш = °>00268>или 0,27%, или округленно 0,3%. 3. В коробку уложены 100 ламп накаливания. Средний процент брака р = 0,01. Какова вероятность того, что совокупность из 100 ламп содержит 2 или более негодных лампы? Мы ищем точку пересечения вертикали X = 1 с кривой с = 2и получаем ординату 0,26. Итак^ из 100 коробок примерно 26 будут иметь по 2 и более бракованных лампы. Обычная расчетная процедура имела бы вид Р (х > 2, X = 1) = 1— (Р (х = 0, X = 1) + Р (х = 1, X = 1) = = 1— @,3679 + 0,3679) = 0,2642. Подобным образом с помощью номограммы получаем Р (х !> 3; X = 1) ~ 0,08, откуда Р (х = 2; X = 1) ~ 0,26—0,08 ~ 0,18 и т. д. Для контроля приведены вероятности 0, 1, 2, 3, 4, 5 и 6 негодных на 100 ламп. Для упражнения рассчитайте эти вероятности с помощью рекуррентнойгформулы. При больших вычислениях используют таблицы распределения Пуассона (см. с. 174). Удобная аппроксимация, которая позволяет грубо оценить вероятность появления по меньшей мере х0 редких событий, дана в [Jo- wett, 1963]: P(x2*xo)=l-P(%lx.<2np). A.182) Применим эту формулу к последнему примеру х0 = 2, пр = 100 • 0,01 = 1: Таблица 39 Число бракованных ламп на 100 0 1 2 3 4 5 > 6 Вероятность 0,3678 0,3679 0,1840 0,0613 0,0153 0,0031 0,0005 1,0000 Табл. 28 на с. 132—133 дает значения р (Х1 = 2) с-0,73, т. е. Р (х > 2) ~ 1— — 0,73 ~. 0,27. 178
Этот быстрый способ оценки примените для упражнения к другим примерам. С помощью A.177) можно выполнить графическую проверку (см. с. 161): если значения Р (х) I P (х + 1) располагаются по прямой, то имеет место распределение Пуассона ([Dubey, 1966], [Ord, 1967], [Grimm, 1970]). Аппроксимации Великолепный обзор сделан в [Molenaar, 1970]. 1. Аппроксимация биномиального распределения распределением Пуассона. Если имеется распределенная по биномиальному закону выборка большого объема п с малой вероятностью события р> так что q = 1—р практически равно 1, скажем, когда р < 0,05 и п > 10, то можно использовать как аппроксимацию распределение Пуассона. Пример В некоторой области в среднем один из 2000 домов ежегодно сгорает от пожара. Если в области имеется 4000 домов, то чему равна вероятность того, что в течение года случится ровно 5 пожаров? ? = пр = 4000--!— = 2; г 2000 Р(х = 59 Х = 2) = е-2 • -Н1 5! Вероятность составляет примерно 4%. 2. Аппроксимация распределения Пуассона нормальным распределением. Можно показать, что при достаточно больших X распределение Пуассона аппроксимируется нормальным распределением со стандартной переменной (х—ЩУ%. A.183) Для практических целей можно использовать эту аппроксимацию при Я > 9. Пример Нас интересует вероятность Р E < х < 15) для Я = 9, Для непрерывной стандартной переменной, распределенной по нормальному закону: 1/2-9 3 Р (х < 15) = 0,9849; Р (х > 15) = 0,0151; Р (х > 15) = 0,0668; Р E < х < 15) = 0,9849—0,0668 = 0,9181; сравнивая с Р — 0,9230 для распределения Пуассона, следует признать аппроксимацию вполне удовлетворительной. 179
ft 1.6.6. СРАВНЕНИЯ СРЕДНИХ ЗНАЧЕНИЙ ПРИ РАСПРЕДЕЛЕНИИ ПУАССОНА 1. Сравнение двух распределений Пуассона Два средних значения Хх и Х2 (при Хх > Х2) можно сравнить с помощью соотношения J A.184) (число степеней свободы = 2 (?С2 + 1); 2ХГХ), причем нуль-гипотезе (Хх > Х2) могут противостоять односторонняя (Ях > Х2) или двусторонняя (Хх Ф Х2) альтернативные гипотезы. Нуль-гипотеза отвергается, если F равно или больше табличного значения. Следует заметить, что таблицы /^-критерия построены для односторонних доверительных интервалов. Пример. Проверить для Ях = 13 и Х2 = 4 справедливость нуль-гипотезы (к± = Х2) при альтернативной гипотезе Хх =#= Х2 (а = 0,05): ? = -^- = 2,60. 4 + 1 Так как 2,60 > F A0,26; 0,025) = 2,59, то нуль-гипотеза отвергается (при односторонней альтернативе %1 > Х2 F A0,26; 0,05) = = 2,22 разность была бы еще более значимой). Сравнение такого типа при не очень малых X (Х± + Я2 > 8) можно делать с помощью стандартной нормальной переменной A.185) При Хх + ?2 > 40 подходит выражение z= (Xx— Х2)/ У%г + 12. A.185а) Пример Возьмем данные последнего примера: ?=A3—4—1)//13 +4=1,940<1|960 = г0,05, следовательно, нет оснований для отклонения Но. Примечание. Сравнение двух выборок из относительно редких во времени событий Если мы посчитаем за промежутки времени tx и t2 число относительно редких событий хг и х29 то нуль-гипотеза (равенство относительных частот) может быть приближенно проверена с помощью выражения F= 'ito+°'5> A.186) ^(^ + 05) при Bхг+ U 2 х2 + 1) степенях свободы [Сох, 1953]* Пример Дано: хх = 4 событиям за 205 ч; х2 = 12 событиям за 180 ч. 180
Проверим гипотезу: относительные частоты равны (двусторонний доверительный интервал а = 0,05, т. е. следует применять верхние границы /^-распределения). Находим р= 205-A2+0,5) ^3 ш 180.D + 0,5) Так как 3,16 > F (9,25; 0,025) = 2,68, то нуль-гипотеза отклоняется. Для сравнения двух относительных частот (x-^ln-^ — рг и х2/п2 = = р2)» которые относятся к биномиальному (р1у р2 > 0,05) или пуассоновскому (ръ р2 <! 0,05) распределениям, Джонсон [Johnson, 1959] предложил номограмму, которая дает элегантное приближенное решение вопроса о том, относятся ли рг и р2 к одной и той же генеральной совокупности. 2. Сравнение нескольких распределений Пуассона (сравнение средних в нескольких выборках из пуас- соновской генеральной совокупности) Если xt — стохастически независимые наблюдения из одной и той же генеральной совокупности (|х, а), то сумма квадратов стандартизованных отклонений (Г ?-Х2 AЛ87) следует ^-распределению с v степенями свободы. Для сравнения k выборок (k ^ 2) наблюдений в произвольных ^-единицах (времени, площади, пространства), в которых событие наступило хг раз, образуют отношения *,//, = *; и B) преобразуют xt по формулам zi — < и вычисляют сумму квадратов 2 z?. Проверка производится по формуле О-188) при (k—1) степенях свободы A степень свободы расходуется на оценку параметра Я; если он известен, то нужно считать число степеней свободы равным k). Пример Используем данные последнего примера: М-4/205 =19,51-Ю-3; Я5 = 12/180 -66,67- Ю-3; 181
X - D + 12)/B05 + 280) - 41,558.10~3; Zl = 2 (]/Т+Т— ^205-41,558.Ю-3) = — 1,366; —1/180-41,558.10) = 1,458 и = 1,866 + 2,126 = 3,992. Так как 3,99 > %!; o.os = 3,84, то нуль-гипотеза отклоняется. Разумеется, что при сравнении именно двух средних используется формула A.184). 1.6.7. ИНДЕКС РАССЕЯНИЯ Если необходимо эмпирическое распределение описать распределением Пуассона^ то должны выполняться два следующих предположения: 1) вероятность данного события для любого числа опытов постоянна; 2) разные события не зависят друг от друга, так что они могут рассматриваться как случайный процесс во времени или пространстве. Если эти условия выполняются частично, то нуль-класс зачастую содержит больше элементов, чем это следует из распределения Пуассона. Если значения переходят из нуль-класса в первый класс, то увеличивается стандартное отклонение распределения. Если мы разделим стандартное отклонение подобного наблюдаемого распределения на стандартное отклонение аппроксимирующего распределения Пуассона или, лучше, возьмем отношение двух дисперсий выборочная дисперсия теоретическая (пуассоновская) дисперсия выборочная дисперсия s2 теоретическое (пуассоновское) среднее А, при большом объеме выборки выражение A.189) — это индекс рас- сеяния, то следует ожидать, что отношение будет больше чем 1. Поскольку каждая случайная выборка имеет свой собственный разброс, то мы должны поставить вопрос: насколько больше 1 должно быть это отношение, чтобы распределение не относилось к пуассоновскому типу? Если отношение ? 10/9, то можно предполагать, что данное распределение может аппроксимироваться распределением Пуассона. Ближайший пример даст нам возможность применить это приближенное правило. Для точной проверки, относятся ли данные (xt) к распределению Пуассона (со средним А), служит индекс рассеяния X2=2(*,-*J/*, A.190) имеющий число степеней свободы, равное (п—1). Если эмпирически оцененное значение %2 равно или больше табличного значения, то дисперсия значимо больше, чем среднее значение, и имеет место композиционное распределение Пуассона: когда наступает вообще редкое со- 182
бытие, тогда зачастую за ним следуют многие и тогда говорят о положительном вероятном заражении. Дни с грозами редки,,но наступают подряд. Используют еще, например, отрицательное биномиальное распределение. Число клещей на овцу в стаде точно следует этому распределению. Распределения других биологических признаков часто лучше описываются так называемым распределением Неймана. Подробнее об этом см. работы: [Neyman, 1939], [Fischer, 1941, 1953], [Bliss, 1953, 1958], [Gurland, 1959], [Bartko, 1966, 1967] и [Weber, 1967]. Важные таблицы даны в [Grimm, 1962, 1964] и [Williamson, Bretherton, 1963]. Пример Классическим примером распределения Пуассона является смерть солдат от удара копытом лощади в 10 армейских корпусах за период 20 лет A875—1894), Таблица 40 Смертные случаи Наблюдаемые Расчетные 0 109 108,7 1 65 66,3 2 22 20,2 3 3 4,1 4 1 0,6 >5 0 0,1 2 200 200 На основании средних частот получаем -65+2-22+3-3 + 4- п 200 @2.109 + 12-65+22-22 + 32 200 6J ) —122/200 200—1 121,58 129 -0,61. Согласно A.189) мы имеем по A.190) X2 - 0,61 0,61 _t 10 0,61 ~~ 9 199,3 < 233 ^Х?99; cos. Итак, предлагаемое распределение можно описать распределением Пуассона (X = 0,61) Вообще, как правило, оценки s2 и X отличаются друг от друга. = °»610'g~°'ai ^0,5434; 200-0,5434=108,68 и т. д. 183
— ). A.191) х\ J В качестве упражнения рекомендуем заполнить до конца табл. 40. Относительные частоты (вероятности) распределения Пуассона задаются последовательными членами соотношения e-b2-*L=e-b(l+K+—+—+... + — х\ \ 2\ 31 х\ Ожидаемые частоты получаются как произведение отдельных членов на объем всей выборки. Определим, например, ожидаемую частоту для третьего члена: n.e-KlL= 200-0,54335.-^^ ==20,2и т.д. Если имеется эмпирическое распределение, похожее на распределение Пуассона, и если нуль-класс (нуль успехов) содержит наибольшее число членов, то можно оценить X по формуле -,„(. число членов в нуль-классе общее число членов ^-ln(-M. A.192) Пример Таблица 41 0 327 1 340 2 160 3 53 4 16 5 3 6 1 2 900 Обычно X = 904 900 (О . 327 + 1 • 340 + ... + 6 • 1) = gg ~ l. Упрощенно j± = g~ = 0,363, In 0,363 = —1,013 или К = 1,013 ~ 1, или через десятичные логарифмы lg 0,363 = 9,5599—10 = —0,4401; 2,3026 • lg 0,363 = 2,3026 (—0,4401) = —1,013. Применяя упрощенную оценку к нашему примеру, получим Я= —In [ ) = —In 0,545=0,60697 (отличный результат!). \ 200 / Критерий однородности, определяющий допустимые отклонения в нуль-классе и других классах, описан в [Rao, Chakravarti, 1956]. Таблицы и примеры можно найти в оригинальных работах. 1.6.8. МУЛЬТИНОМИАЛЬНЫЕ КОЭФФИЦИЕНТЫ Когда п элементов распределены по k группам так, что/&Х + Л2 + + ... + nh — п, где ttj, па,.-м Пи обозначают числа элементов в соответствующих группах, то число возможных распределений п элементов по таким k группам определяется выражением 1S4
-(мультиномиальный коэффициент). A.193) «11-п2 !•.. .-r Примеры 1. 10 студентов нужно разделить на 2 баскетбольные команды по 5 человек. Сколько можно составить различных вариантов команд? 10! 3628 800 5!-5! ( 120-120 2. Колода из 52 карт разделяется 4 игроками поровну (по 13 карт). Сколько существует вариантов такого разделения? 52! 8,0658-10е? 13!-13!-13!-13! F,2270- 109L 1.6.9. МУЛЬТИНОМИАЛЬНОЕ РАСПРЕДЕЛЕНИЕ -5,36.1028. Мы знаем, что если вероятность случайного выбора курящего составляет р, а некурящего — A—р), то вероятность получить точно х курящих из общего числа п равна ^ц-ру*-*. A.158) Если вместо двух исходов возможны несколько — Ег, Е2, ..., Ek с вероятностями рг, р2, ..., pky то вероятность в п опытах получить точно nl9 пъ ..., nk событий Еъ ?2, ..., Ek определяется выражением A.194); иначе: если возможны больше чем два исхода и генеральная совокупность состоит из исходов Аг, А2, ..., Ah с вероятностями ръ р2, ...» Ри при 2 Pi = 1> то вероятность того, что в выборке из п независимых наблюдений пг раз наступит исход Аъ п2 раз наступит исход Л2 и т. д., распределена по мультиномиальному закону (полиномиальное распределение): Р(пип%9...9пи\1р1,р2,...,рк\п) = A.194) k При УСЛОВИИ 2 ni = п- 1=1 Параметры этого распределения: среднее значение: jui^ = при A.195) дисперсия: а? = npt (l—pi) = пргцг. A.196) При k = 2 (частный случай) получается биномиальное распределение. Выражение A.194) может быть получено также из обобщенного гипергеометрического распределения при постоянном п и растущем N. Мультиномиальное распределение имеет много применений: на предприятии имеется, скажем, п машин, которые работают не постоян- 185
но. Включаются и выключаются они независимо друг от друга. Обозначим через рг вероятность того, что 1-я машина работает в заданный момент времени; тогда вероятность того, что в этот момент времени работают точно п' машин, Р (п' \ pt I n) определяется выражением A.194). Параметры полиномиального распределения рассматриваются в гл. 6 (проверка таблиц сопряженности признаков типа г*с на однородность и независимость). Примеры 1. В коробке содержится 100 бус, из которых 50 — красные, 30 — зеленые и 20 — черные. Какова вероятность того, что из 6 вынутых наугад бус будут 3 красные, 2 зеленые и 1 черная? Так как выбор осуществляется с возвратом, то вероятность выбрать красную, зеленую и черную бусинку равны соответственно /?х 5= 0,5, р2 = 0,3 и р3 = 0,2. Вероятность выбрать б бус в заданном сочетании равна Р - ^~^ = @,5K @,3)* @,2)i = Оу 135. 2. Идеальную кость бросают 12 раз. Вероятность появления 1,2 и 3 по одному разу и 3, 4 и 6 — по три раза равна (заметьте: 1 + 1 + 1+3+ 3 + 3 = 12) р = 12! 1Mb 11.31- 31-3! 3. 10 человек должны выбрать одного из трех кандидатов (Л, В, С). Чему равна вероятность выбора &4, 1В и 1С? -.—.— = 0,00152. 81-11.1! \3 ) \ 3 ) \ 3 ) 6561 3 3 Вероятность события ЗАУ ЗВУ 4С (или ЗА, 4В, ЗСУ или 4АУ ЗВ, ЗС) равна Р — 10! ( 1 \* ( 1 \*( 1 У== 362880Q JL J_ JL _ "~ 3I.31-41 \3/ V 3 у \ 3 / 6-6-24 ' 27 ' 27 ' 81 "~" 420°-=--0,07113, 59 049 т. е. примерно в 47 раз больше, чем Psa, ib, ic-
ГЛАВА. 2 ПРИМЕНЕНИЕ СТАТИСТИЧЕСКИХ МЕТОДОВ В МЕДИЦИНЕ И ТЕХНИКЕ 2.1. СТАТИСТИЧЕСКИЕ МЕТОДЫ В МЕДИЦИНЕ Если действие снотворного испытывается на большом круге лиц, увеличение продолжительности сна для разных лиц оказывается различным. Чего можно достичь статистическими исследованиями — это прежде всего суждения о среднем увеличении продолжительности сна. Далее необходимо проверить, гарантируется ли статистически это увеличение. Этот вид исследований предполагает, наряду с использованием математической статистики, хорошую осведомленность в исследуемой области, потому что воздействие должно быть определено как функция наперед заданных причин. Это означает в нашем примере, что необходимо избегать всякого психологического влияния пациента. Ни врач, ни пациент не должны знать, является ли даваемое средство испытуемым снотворным или заведомо неэффективным средством (так называемым плацебо). Этот вид опытов называют «дважды слепыми опытами». Они показывают трудности нематематического характера при использовании статистических критериев. Наряду с этим стоит опасаться следующего. Если мы исходим из определенной постановки задачи, то, собственно, подменяем проблему изучением поведения ряда признаков у некоторого объекта при определенных условиях; реальный признак подменяется наблюдением признака, наблюдение — символами протокола. В каждом приведенном пункте из цепочки подстановок может иметь место ошибка (ошибка подстановки). Во многих и важнейших случаях подстановки близость задачи и признака и тем самым ценность заключения незначительны. Например, у тех, кто при исследовании плодовитости и бесплодия ориентируется на число детей. Непосредственно связанный с задачей признак должен будет учитывать еще и детскую смертность. В последние десятилетия особенно распространилось понимание того, что и в клинической медицине статистика также может служить вспомогательным средством при добывании знаний. В этой области импонирующим результатом является открытие (в 1941 г.) поражения 187
эмбриона краснухой австралийским окулистом Грегом (Gregg), koto- рый путем чисто статистического анализа провел доказательство того, что должна существовать связь между известными, но ранее считавшимися наследственными повреждениями эмбриона и заболеванием краснухой матерей в первые месяцы беременности. В 1851 г. примирились причуды так называемых терапевтических опытов некоторых врачей, которые чаще всего строили их на анализе собственных ощущений и воспоминаний, а также признаков, извлеченных из описанных в литературе случаев, с образом действия физиков, которые выводили среднюю температуру некоторых помещений из того, как часто они зябнут или потеют (см. [Martini, 1953, s. 5]). С тех пор прошло более 120 лет. Основные принципы медицинской статистики, в особенности клинико-терапевтических исследований, сегодня хорошо знакомы каждому врачу. Применение статистических и математических методов в биологии (и медицине) привело к биометрии; в соответствующих значениях употребляются психометрия, социометрия, эконометрия и технометрия. 2.1.1. ОБЗОР ИСХОДНЫХ МАТЕРИАЛОВ Помимо ошибок округления при записях веса и сверх того фальсификаций возраста, помимо субъективных ошибок оценивания и измерения персоналом лаборатории есть ошибки, которые совершаются умышленно вследствие заинтересованности опрашиваемого лица. Большая доля стариков в Болгарии якобы объясняется незнанием секрета их возврата и легкостью соединения действительных данных с завышенными. В странах, население которых преимущественно исповедует ислам, наблюдается значительное отклонение соотношения полов новорожденных от обычного. Там наблюдается значительное превышение числа мальчиков. Достаточно достоверное объяснение заключается, согласно [Freudenberg, 1962], в том, что в этих странах рождение девочки считается столь маловажным, что часто не регистрируется. Введение в демографическую статистику (демометрию, см. [Winkler, 1963]) дают [Flaskamper, 1962], см. также [Adam, 1966], [Benjamin, 1968], [Bogue, 1969], [Winkler, 1969] и [Сох, 1970]. 2.1.2. НАДЕЖНОСТЬ ЛАБОРАТОРНЫХ МЕТОДОВ Известно, что результаты клинических и лабораторных исследований подвержены различного рода искажениям. Ошибки могут, например, появиться при получении, хранении и обработке материалов исследования. Так, ошибки считывания не столь уж редки при измерении температуры тела, скорости оседания эритроцитов и фотометрическом анализе. Знание степени надежности исследований, проведенных в клинической лаборатории, трудно переоценить для практической медицины. 188
Решение о том, указывает ли резул!л^ исследования йа йатолб* гию или нет, опирается, с одной стороны, на точное знание надежности метода, а с другой — на точное знание нормы (ср. также [Kol- 1ег, 1965], [Castleman и др., 1970], [Eilers, 1970], [Reed, 1970], а также [Williams и др., 1970]). Так как норма для здоровых людей в большинстве случаев имеет значительные отклонения от нормального распределения, приходится принимать 2,5%-ные и 97,5%-ные пределы выборочного распределения как «клинические границы» ([Elveback и др., 1970]). Надежность метода определить трудно, так как она обусловлена рядом факторов, которым от случая к случаю, в зависимости от практической медицинской цели и диагностического значения метода, придается различный вес. Важнейшими критериями надежности служат: 1. Специфичность (specificity)—способность обнаружения некоторых химических веществ без помех со стороны других веществ. 2. Правильность (accuracy) — способность точно количественно определять расход исследуемого материала (во избежание систематической ошибки!). Правильность контролируется тремя простыми методами: а) сравнительный опыт — сравнение методов производится за счет параллельного определения каким-то более точным (надежным) методом; б) опыт с добавкой — к исследуемому материалу добавляют известное количество анализируемого вещества; в) опыт со смесями — сыворотка или моча смешиваются в различных объемных содержаниях с высокими и низкими концентрациями анализируемых веществ. 3. Прецизионность (precision), точность или воспроизводимость — способность регистрации случайной ошибки метода при обновлении реагентов, в различные дни различными лаборантками и в разных лабораториях, на основании размаха вариации, среднего квадратичного отклонения и коэффициента вариации. Если коэффициент вариации выше пяти, то необходим двукратный или трехкратный анализ. При трехкратном анализе следует предостеречь от отбрасывания значений, лежащих несколько в стороне; почти всегда от этого страдает точность анализа. Значительные отклонения значений друг от друга не столь уж редки (ср. [Willke, 1966], а также [Anscombe, Barron, 1966]). Юденом [Youden, 1962] показано, как для нормально распределенной величины (а) по двукратному (пусть меньшее значение обозначено xi : xi ^ *г) и б) по трехкратному анализу (хг ^ х2 <| х3) можно сделать вывод об истинном значении величины (fx) и произвести оценку соответствующего доверительного интервала. A) jlx лежит (а) с вероятностью Р = 50% в области хг < \i < x2 и (б) с вероятностью Р = 75% в области хг < \х < х3. B) Приближенной доверительной областью служит (а) 80%-Ш: хг — (х2—хх) < [х < х2 + (х2—хг) и (б) 95%'DH: хх — (хъ—х^ < [х < х3 + (х3—хг). 189
Для величины, по меньшей мере приближенно нормально распре* деленной, можно указать в соответствии с [McFarren, 1970] общую (равную сумме случайной и систематической ошибок) ошибку анализа, в %; Здесь \х — истинное значение; x и s нельзя вычислять по малой выборке. Метод практически непригоден в случае G>50% и очень хорош, если G<25%. Пример |х — 0,52; *=0,50; G^U°-50-°>52l + 2-M5 1-100 = 23%. L 0,52 J s = 0,05; 4. Чувствительность (sensitivity) — характеризуется наименьшей абсолютной величиной, которая значимо отличается от нуля. В предположении приближенно нормального распределения случайной величины, обозначая дисперсию нулевого значения через si, дисперсию стандартной навески через s% и дисперсию скорректированного значения через s?Opp = s? + s?> получим нижнюю границу Ви или чувствительность метода — если риск I = риск II = 0,05 — в виде следующего выражения (по Уилсону [Wilson, 1961] и Русу [Roos, 1962]): Ви = 2 . 1,645 • sKopp ~ 3,3 • sKOpp. B.16) Более подробно в случае надобности можно ознакомиться в [Kaiser, 1966], [Svoboda, Gerbatsch, 1968], а также [Gabriels, 1970]. При сравнении двух и более методов можно использовать отношение чувствительностей по [Mandel, Stiehler, 1954], [Mandel, 1964] (см. также ниже). 5. Практическая проверка в течение долгого времени. Здесь выясняются: степень трудности, аппаратурная сложность, требуемое время, затраты. Правильность и точность — важнейшие понятия для характеристики надежности измерений. Наряду со стандартным отклонением как мерой повторяемости необходимо в каждом случае производить хотя бы грубую оценку систематической ошибки. Для этого требуется знание дела. На практике метод с малой систематической погрешностью и более высокой точностью следует предпочесть методу, который дает несмещенное среднее значение с невысокой точностью, иначе говоря: результат, близкий к истинному и имеющий малый разброс, определенно лучше того, который дает «в среднем» истинное значение, однако имеет значительный разброс, ибо мы обычно вынуждены ограничиваться немногими измерениями (см. также [Cochran, 1968]). 190
Более подробно знакомит с надежностью измерений великолепный обзор [Eisenhart, 1963]. К сожалению, мы не можем остановиться на сравнении точности и правильности многих лабораторных методов. Наряду с работами [Tonks, 1963], [Mandel, Lashof, 1959] следовало бы в особенности отметить публикации [Youden, 1959, 1963] (см. также [Chun, 1966] и [Kramer, 1967]). Простое сравнение некоторого нового количественного метода и стандартных методов приведено в [Barnett, 1965]. Там, где необходимо проделать 164 опыта, —для быстрой оценки достаточно сорока, проанализированных в соответствии с обоими методами. Контрольные карты в лаборатории Непрерывный контроль надежности, прежде всего точности метода, осуществляется графическим путем с помощью так называемых контрольных карт. Согласно правилу по меньшей мере 40 раз проводят анализ пробы с известным содержанием и рисуют статистическое распределение частот полученных результатов измерений. Если кривая распределения хотя бы приближенно совпадает с кривой нормаль- Верхняя контрольная гоаница ^^н^л_ожи^аемая_граница_ _ —_____ х Нижняя i Нижняя контрольная граница Выборки до времени Рис. 31. Контрольная карта. ного распределения, можно при помощи оценок для х и s сконструировать контрольную карту. Если максимум отсутствует или имеется несколько максимумов, метод еще непригоден для контроля. Пример контрольной карты приведен на рис. 31 (по оси абсцисс — дни, по оси ординат — измерения). На миллиметровке на расстоянии zfcs и ±2 s от среднего значения х нанесены граничные линии. Мы знаем, что в случае нормального распределения 68% всех наблюдаемых значений лежит в области х ±s и 95% — в области х ±2 s. Поэтому следует ожидать, что при ежедневном контрольном анализе среди 100 точных анализов приблизительно 32 будут лежать за областью ±s и приблизительно 5 — за областью ±2 s (рис. 32). Если отклонения от среднего значения встречаются чаще, то на каждом этапе метод должен быть подвергнут критической проверке. Если нанесенное множество точек беспорядочно рассеяно не около средней, а вдоль возрастающей или ниспадающей линии, следует предположить существование зависящей от времени систематичес- 191
кой ошибки. Как только по меньшей мере восемь следующих друг за другом измерений окажутся лежащими по одну сторону от средней линии, напрашивается мысль о неслучайном характере отклонений. Используется также «правило трех сигм» (x±3s). Давая консервативную контрольную границу, это правило почти никогда не вызывает ложную тревогу. Наряду с картами среднего значения (лг-карты), предназначенными для кон- 19,2] x+2s троля правильности, карты -+s оазмаха (R-карты) служат # х* для контроля точности по па- /8\ s_L_ х раллельным анализам и так • • # т называемые кумулятивно- • x-s суммирующие карты — для ! x-2s раннего надежного определения систематических откло- L-^ ^ ^ * нений. Заблаговременноерас- ' „ ' познание тренда чрезвычайно Рис. 32. Результаты ежедневных кон- RflWHO ппя КОНТПлпЯ неппе- трольных измерений по определению ка- важно для кишрилм исирс лий-стандарта. рывного процесса: определяют для i последовательных дней (I = 1, 2, 3, ..., г) отклонения хг истинной концентрации от значений стандартного раствора базового значения k и наносят непрерывно суммируемые значения (скользящие суммы) Sr= У (xt-k) B.2) на диаграмму типа изображенной на рис. 32. По оси ординат вниз от начала координат откладывают отрицательные и вверх — положительные значения Sr. По оси абсцисс откладывают дни; в протиполож- ность к обычным контрольным картам на этой карте отсутствуют граничные линии, параллельные оси абсцисс. Пока метод находится под контролем, кривая имеет нулевой наклон и проходит параллельно оси абсцисс. Если наклон кривой достиг значения, заметно отличающегося от нуля, можно предположить, что метод вышел из-под контроля. Это предположение тем обоснованнее, чем длиннее отрезок кривой с таким наклоном. Проверка того, не превосходит ли наклон кривой граничное значение, производится F-об- разным шаблоном (У-маской), конструкция которого описана в [Barnard, 1959], [Kemp, 1961], [Ewan, 1963], [Johnson, Leone, 1964], а также в [Woodward, Goldsmith, 1964]. Кумулятивно-суммирующие карты разработаны Пэйджем (Page). Другие интересные применения этого принципа в рамках контроля качества даны в [Kemp, 1962] и [Page, 1963] (см. также [Taylor, 1968], [Вагг, 1967], [Woodward, 1968], [Zacek, 1968], [Vessereau, 1970]) и в особенности в [Dobben de Bruyn, 1968] и [Bissel, 1969], в обеих с важными примечаниями. 192
2.1.3. ЗАБОЛЕВАНИЕ КАК ПРЕДМЕТ ЭКСПЕРИМЕНТА И МАССОВОЕ ЯВЛЕНИЕ Опыт является решающим элементом врачебных знаний, будь то собранный воедино и изложенный опыт предыдущих исследователей или опыт, обобщенный теорией. Основой опыта и знаний, закономерностей и законов никогда не были единичные наблюдения, а всегда, как подчеркивал Коллер [Koller, 1963], —сведения, полученные на основе массовых явлений. Только благодаря понятию массовости, которое является основой классической статистики, в познании создается такая ситуация, когда можно превзойти результаты отдельных наблюдений. Только для массы, или для генеральной совокупности, больных (и тем самым для заболевания) могут быть сделаны категорические выводы: 70% пациентов после определенного лечения будут здоровы, 10% — получат рецидивы. Если из 100 больных 90 вылечились, это служит показателем, который как массовый признак приблизительно верен также и для следующих 100 больных. Если при другой терапии выздоравливает только 70% и обе группы больных по своему составу совпадают по всем существенным влияющим факторам (т. е. в отношении возраста, пола, серьезности болезни, телосложения, предрасположения и других входных переменных и влияющих факторов), то эти методы лечения можно сравнивать друг с другом. Если это различие доли выздоравливающих для двух методов лечения повторяется для Других мест, с другими врачами и при других прочих привходящих обстоятельствах, то результат можно считать пригодным к обобщению. Тогда станет обоснованным вывод о том, что метод лечения I лучше, чем метод лечения II. В будущем следует ожидать лучших результатов от метода I, и метод II отбрасывают. Только рассмотрение массовых явлений позволяет при благоприятных условиях сделать заключение о сравнении двух методов. 2.1.4. СТАТИСТИКА ПРИЧИН БОЛЕЗНЕЙ: РЕТРОСПЕКТИВНЫЕ И ПЕРСПЕКТИВНЫЕ СРАВНИТЕЛЬНЫЕ РЯДЫ Важнейшими методами этиологической статистики являются ретроспективные и перспективные сравнительные ряды [Koller, 1963], [Cochran, 1965]. В ретроспективном ряду сравнивают группу больных с группой лиц, не страдающих этой болезнью, и устанавливают задним числом (по историям болезни или посредством личных бесед или обследований) наличие или отсутствие в прошлом определенных факторов. Мы можем допустить употребление термина «причина» для такого фактора, при отсутствии которого заболевание не встречается и по сравнению с которым другие факторы отходят на второй план. Следует, однако, подчеркнуть, что вместо причинной связи соединения фактора и болезни может иметься также ряд других связей (соотношений); например, может быть фактором симптом, или предпосылка, болезни, 7 Зек. 930 193
Сравнивается частота этого фактора в обоих рядах. При этом контрольный ряд по величине должен быть по меньшей мере такой же, что и испытуемый ряд. На рис. 33 верхняя кривая I изображает изменение стандартного отклонения, или, как говорят еще, нормированной ошибки разности, когда контрольный ряд п2 больше или меньше проверяемого ряда ях. Если контрольный ряд делают вдвое больше проверяемого, нормированная ошибка разности уменьшается пример, ОА Равные объемы'""^ рядов ;/2(nf+n2) i i i 0 Tlf 2П] J/7/ 4П; 2п, Зщ 6щ Рис. 33. Стандартная ошибка разности между двумя частотами при различных соотношениях объемов рядов [KollerS. Einfiihrung in die Metho- den der atiologischen Forschung-Stati- stik und Dokumentation, Method. Inform. Mod., 2A963I—13, Abb. 1, S. 6]. но лишь на 13%. При дальнейшем увеличении эффект еще слабее. Такие затраты окупаются только в случае редких заболеваний, когда объем пг проверяемого ряда не может быть увеличен. Но если контрольный ряд меньше проверяемого, стандартное отклонение быстро увеличивается (левая часть верхней кривой!). Если можно увеличить расходы, то проверяемый и контрольный ряды стоит наращивать в одинаковой мере. Пунктирная кривая II показывает для абсциссы, соответствующей одному и тому же общему объему (пг + п2), как и для кривой I, стандартную ошибку разности, много меньшую при пг = п2 = 1/2 (пг + п2), чем при одностороннем увеличении я2. Необходимо, следовательно, выбирать проверяемый и контрольный ряды одинакового объема. Два ряда сравнимы, если они различаются только сравниваемыми признаками, а по всем другим признакам совпадают, т. е. статистические распределения прочих признаков, за исключением случайных различий, должны быть одинаковыми. На практике это зависит от трех существенных моментов: совпадения структуры, условий наблюдения и репрезентативности [Roller 1964]. 1. Структурное совпадение: совпадение в сравниваемых группах распределений частот влияющих факторов, таких, как возраст, пол, серьезность заболевания. Структурного неравенства зачастую можно избежать только соответствующим подбором групп. Лучше всего предпринять подбор аналогичных сравниваемых пар, причем, когда в распоряжении имеется несколько пригодных для сравнения случаев, при распределении по парам должен использоваться принцип случайности (рандомизация). 194
2. Совпадение условий наблюдения: совпадение способов наблюдения и условий наблюдения. Наблюдение и регистрация фактора должны в точности совпадать. Результаты опросов изменяются, если врачам или больным станет известна гипотеза или когда больных расспрашивают о факторе с большой настойчивостью; в таких случаях у больных иногда создается предрасположение к подтверждению или отрицанию фактора. В сущности, выводы пригодны только тогда, когда и опрашивающий и опрашиваемый не имеют ясного представления о диапазоне и об этиологической гипотезе. Когда играют роль психологические факторы, например, при ретроспективных опросах, как в случае «Thalidomid-Komplex» либо в клинических сравнительных исследованиях при определении успеха лечения, система наблюдения является решающей. Смещение интервьюера {interviewer bias), как известно из социологических опросов, также относится сюда, подобно меняющейся с течением времени и обычно возрастающей точности диагноза при исследованиях изменения во времени смертности от различных причин. 3. Совпадение репрезентативности. Сравниваемые ряды должны быть выборками, соответствующими одной и той же генеральной совокупности. В случае перспективных этиологических рядов оба ряда относятся чаще всего или ко всему населению, или к родившимся в той же самой клинике. В случае ретроспективных рядов получение подходящего, с точки зрения репрезентативности, контрольного ряда часто затруднительно. Контрольный ряд должен быть репрезентативным как для не заболевшей части населения, так и для больных, поступивших в клинику. Только тогда может быть проверена возможность обобщения результата. Перспективные ряды менее подвержены ошибкам, но должны быть большими по объему. Здесь сравниваются две группы лиц в одинаковых условиях наблюдения в равные промежутки времени. Вычисляется частота появления болезни. Решающей количественной мерой угрозы заболевания со стороны вредного фактора является отношение числа заболевших к численности обследованного населения или группы с фактором к группе без фактора. Угроза заболевания, выраженная посредством фактора, диагносцируется и измеряется непосредственно. Опытный и контрольный ряды должны быть сопоставимы также по структуре и по условиям наблюдения. Контрольный ряд — быть репрезентативным для всех групп без фактора, из которых получена группа с фактором. Если нет какой-либо специальной этиологической гипотезы, на передний план выдвигается собирание данных осмотра и документации. Из ретроспективного без точной цели анализа накопленных случаев уродств конечностей возникла позднее «проблема талидомида». Перспективно рассматривают такой вредный фактор, как курение, и все разнообразие болезней, на которые оно может оказывать влияние. И здесь широкое наблюдение и документация являются решающими. 7* 195
Выяснение вопроса, нужно ли расценивать наблюдаемые комплексы болезней как случайный феномен, часто является, как, в частности, доказал Ланге [Lange, 1965], очень проблематичным, прежде всего вследствие того, что, кроме трудностей в рациональном разграничении сравниваемых групп и учете времени течения болезни, картина может быть искажена эффектом селекции и неоднородности (см. IFein- stein, 1970] и [Rumke, 1970]). Перспективные ряды представляют для изучения ассоциаций такого рода наилучшие возможности. Замечания о клинических материалах больниц 1. Процентные соотношения пациентов с определенными болезнями, принятых в клинику, почти совсем неизвестны. 2. Возможности быть принятым в клинику у каждого пациента различны. Клинический материал по этой причине не является случайной выборкой. Известные и неизвестные факторы отбора содействуют тому, что в каждой клинике оказывается вполне определенный круг пациентов. 3. Возможными факторами отбора (селекции) являются вид и серьезность заболевания, другие болезни, возраст, пол, профессия, практика диагноза, склонность врача при направлении больного в клинику, размеры и расположение клиники. 4. Поэтому всегда можно обобщать только по частным гипотетическим генеральным совокупностям случаев, которые можно вообразить себе с ростом числа наблюдений при одинаковых условиях. 5. Группы пациентов той же клиники не сопоставимы, если у них различные шансы быть принятыми в клинику. Сопоставление возможно, если рассматриваемый признак не является причиной (поводом) для приема в клинику. 6. Взаимосвязь между болезнями определяется лучше всего при наблюдениях за ровесниками в течение всей их жизни. 7. Сводные данные из-за неудовлетворительной сопоставимости клинического материала отдельных клиник почти никогда непригодны. 2.1.5. ТЕРАПЕВТИЧЕСКИЕ СРАВНЕНИЯ Необходимая предпосылка для терапевтического испытания некоторого лечебного средства — комбинированных препаратов и поли- прагмазей (лечение разносторонними лечебными средствами) при появившихся симптомах болезни следует по возможности избегать — это наличие основы для сравнения. Она может быть получена или (а) из исхода заболевания: альтернатива — здоровье или смерть, или (б) из числа выживших или срока улучшения, или (в) из хода болезни и соответственно из достигнутого улучшения или остаточного дефекта. При острых инфекционных заболеваниях по- повышенную температуру тела всегда необходимо принимать во внимание как самый устойчивый симптом. Кроме того, учитывается картина крови (гемограмма). 196
Желательно в каждом случае иметь измеримые (количественные) критерии. Можно, следуя [Pipberger, Freis, 1960], по аналогии с обычной в анализе технических данных терминологией различать и в медицине «мягкие» и «жесткие» параметры. «Мягкие» параметры — это сведения, полученные при анализе, — такие, например, как кашель, одышка, которые в значительной мере зависят от мнения опрашиваемого пациента. «Жесткие» параметры — такие, например, как возраст, вес тела, рост, являются в большинстве случаев данными лабораторного исследования. Оценка «мягких» параметров количественными значениями, как правило, не приводит к заметным результатам. Критическая оценка результатов терапии, основывающаяся на сравниваемых наблюдениях, имеет задачу разграничить подлинные различия от спонтанных колебаний. Важнейшими предпосылками для применяемых с этой целью статистических методов являются: однородность пациентов, случайное распределение отдельных пациентов по отношению к различным способам лечения, а также повторяемость наблюдений. Требование однородности отдельных объектов эксперимента (в нашем случае пациентов) наталкивается при терапевтическом сравнении на следующие трудности. Ни один больной не походит полностью на другого, страдающего тем же заболеванием. Состояние болезни полностью также никогда не повторяется. Только в случае хронического заболевания в течение болезни пациента повторяются отрезки времени со сходными состояниями. Поэтому преимущественно для таких пациентов исследования ограничиваются, чаще всего на начальной стадии испытания лекарственных веществ, так называемыми индивидуальными терапевтическими сравнениями. При этом пациента лечат в течение следующих друг за другом одинаковых периодов болезни обоими сравниваемыми методами. Кроме обоих терапевтических периодов, в таком случае следует различать и контролировать свободные от специфической терапии предварительный, промежуточный и окончательный периоды. В течение предварительного периода пациента лечат по чисто симптоматическим признакам. Все периоды должны длиться, пока не станет очевидным, что нельзя больше рассчитывать на изменение существовавшего до сих пор течения болезни. Картины болезни пациентов с острыми инфекционными заболеваниями очень похожи. Объединение различных пациентов в две группы однородных больных возможно. Оба коллектива проходят сравниваемые курсы лечения — так называемое коллективное терапевтическое сравнение. Второе требование — о случайном распределении пациентов — при коллективном сравнении и соответственно распределение периодов наблюдения в индивидуальном сравнении (при лечении новым проверяемым медикаментом или при контрольном лечении) гарантирует равномерное распределение всех мешающих точной оценке причин в обеих сравниваемых группах. Тем самым в значительной мере ликвидируется мешающий эффект воздействия неконтролируемых причин. Серьезные искажения могут давать спонтанные выздоровления. 197
Часто для терапевтического сравнения применяют «чередующиеся ряды» (Bleuler), построенные так, что при распределении пациентов и соответственно периодов лечения по различным терапевтическим способам лечения чередуют их между контрольным методом и подлежащим оценке терапевтическим методом. В случае «чередующихся рядов с выравниванием» выбирают или по принципу гарантированной случайности, например с помощью случайных чисел, или так, что первого больного, находящегося под наблюдением и лечащегося, лечат одним средством, второго же — другим из двух сравниваемых медикаментов. С другой стороны, ввиду возможных неравномерностей такого случайного распределения при относительно малом количестве больных, выборку все-таки еще упорядочивают, в особенности по полу, возрасту, весу, стадии заболевания, сопутствующей болезни и т. д., и притом в соответствии с их значимостью и ранговой упорядоченностью. Прежде всего выравнивают те признаки, которым приписывается большее влияние на течение болезни и исход; при тифе, например, — возрасту, при дифтерите — дню болезни. С целью соблюдения объективности врач, проведший выравнивание чередующегося распределения, должен быть отстранен, из осторожности, от последующей оценки результатов. Принцип «выравниваемого чередования» заключается, следовательно, в том, что при формировании коллектива в основу кладут чисто случайное распределение, но в течение коротких промежутков времени устраняют биологически и антропологически обусловленные неравенства двух рядов, с тем чтобы достичь большей аналогичности и сопоставимости обеих групп пациентов. Если для сопоставления располагают значительным количеством больных, то зачастую бывает достаточно распределить их в два ряда по дню их рождения — четным и соответственно нечетным дням месяца. Подлинно случайное распределение при однородном клиническом материале, само собой разумеется, превосходит любой чередующийся ряд с выравниванием. В случае незначительной разнородности клинического материала также не следует отказываться от выравнивания. Третье требование о повторяемости наблюдений, наталкивается особенно на временнйе трудности: некоторые важные признаки болезни нельзя произвольно часто и произвольно быстро последовательно наблюдать и измерять, потому что нельзя требовать произвольно частого обследования пациента. Другое требование, которое должно быть выполнено для достижения безупречной терапевтической оценки,—наличие признаков болезни и репрезентативных симптомов, которые позволяют количественно точно регистрировать состояние болезни: например, таких, как содержание сахара в крови по сравнению с ощущением боли. Субъективные симптомы могут вдобавок находиться под влиянием самообмана пациента, верящего в помощь врача; невольного и непреднамеренного внушающего воздействия врача на пациента, а также самовнушения врача при установлении, наблюдении и градации интенсивности симптома болезни, обусловленного его знанием того, что применено эффективное средство. Против непреднамеренного и невольного обмана оказывается действенным только «неосознанное 198
проведение опыта», «неосознанное его построение» в форме просто или дважды слепого опыта (см. [Martini, 1957], [Schindel, 19623). Построение простого слепого опыта состоит в том, что больного, на котором должна быть испытана пригодность и эффективность медикамента, на протяжении всего испытания держат в неведении о сущности и составе средства, которое должно быть испытано. Сверх того, он по возможности 'должен находиться в неведении и относительно самого факта привлечения его к терапевтическому испытанию. По меньшей мере, необходимо утаивать от него тип средства, которое на нем испытывается, и если для него не составляет тайны факт самого испытания на нем средства, необходимо средство маскировать; при случае пациент должен быть введен в заблуждение ложным лекарством, иначе плацебо (фармакологически неэффективным веществом), с тем чтобы элиминировать его предубеждение за или против средства. Известен случай, приведенный в [Jellinek, 1946]. Три лекарства от головной боли Л, Б, С и плацебо D испытывались на 199 пациентах. Каждый пациент получал, как только он жаловался на головные боли, в течение 14 дней определенный препарат. Доля успешно излеченных головных болей от общего числа составила 0,84 для Л, 0,80 — для В, 0,80 — для С и 0,52 для D. Три активных препарата не проявили, следовательно, каких-либо значительных отличий в отношении эффективности. При более детальном обследовании 79 лиц, на головной боли которых не сказался прием плацебо, доля успешного лечения составила 0,88 для Л, 0,67 —для В и 0,77—для С. Эти числа весьма различаются! Для остальных 120 пациентов, ощущавших подчас облегчение от головной боли после приема плацебо D, процентная доля успеха составляет 0,82 для Л, 0,87 — для В, 0,82 — для С и 0,86 — для D. Если рассматривать этих пациентов, то все 4 препарата как будто обнаруживают одинаковую эффективность. Следовательно, целесообразно всем пациентам перед сравнением нескольких препаратов от головной боли давать плацебо и пациентов, реагирующих на плацебо, при проведении прямого опыта исключить. В среднем треть каждой группы пациентов реагирует на плацебо. Эта реакция наступает быстро, но длится недолго. Разброс велик. Доля положительно реагирующих на плацебо простирается при болях от 0 до 67%, при головных болях — от 46 до 73%. Даже по меньшей мере в 30% случаев дисменореи наблюдается реакция на плацебо. Плацебо не действуют на маленьких детей, в случае тяжелых острых болезней и в случаях органических заболеваний по специфическим причинам. Странным образом тесты на устойчивость к внушению не согласуются с реакцией на плацебо (см. [Documenta Geigy, 1965]), хотя способ употребления (эликсир, таблетки, желатиновые4 капсулы) оказывает большое влияние. Необъяснимы также определенные, обусловленные плацебо, клинические результаты и особенно результаты биохимического анализа [Schindel, 1965]. Некоторые американские врачи предпочитают так называемые «активные плацебо», которые содержат малое количестро более эффективного вещества (см. [Lasagna, 1962]). Само собой разу- 199
меется, что активные плацебо можно применять только тогда, когда исключено, что малое количество активного вещества проявит противоположный эффект или вообще обнаружит другие более или менее сильно ослабленные воздействия. Часто от плацебо отказываются и дают стандартный препарат. «Дважды слепой опыт» предъявляет по сравнению с обычным слепым опытом дополнительные требования. Не только больные, но также и врач (или врачи), наблюдающий и судящий о реакциях больных, не должны знать, что вообще и что непосредственно дают больным — медикаменты или плацебо. Таким врачом не может быть лечащий врач, чтобы его недостаточная информированность о чем-либо, происходящем с его больным, ни в коем случае не сталкивалась бы с его ответственностью врача. Целесообразно, чтобы медикаменты давали сестры, во всяком случае, тот обслуживающий персонал, который их обычно раздает. Всего необычного следует избегать. Но еще более важным является то, чтобы и эти лица не были знакомы со средствами, которые они выдают больным. Очевидно, что таким образом, достигается очень хорошая защита от непреднамеренного внушения. Стремление к такой значительной гарантии показывает, что возможны влияния не только непосредственно на основании предубеждений или самовнушения больного, но также и косвенно, путем сознательного или непреднамеренного, для больного даже неощутимого, влияния лечащего врача. Дважды слепой опыт необходимо применять, например, во всех психологических задачах, когда для установления субьективного критерия требуется суждение врача. Чем большее значение имеют субъективные критерии в исследуемой проблеме, тем более показаний к применению дважды слепого опыта. Он не нужен и достаточно простого слепого опыта, если характеристика симптома может быть осуществлена пациентом без участия врача, например при характеристике боли посредством высказываний: «стало лучше», «по-прежнему» или «хуже». Следует упомянуть также трижды слепой опыт. В этом случае врачу неизвестно, какое лекарство получает пациент, сестра не знает, что она дает больному, и больной не знаком ни врачу, ни сестре. Лучших результатов, чем при дважды слепом опыте, не удалось достичь и при таком построении эксперимента. Относительно «многократно» слепого опыта (однажды был осуществлен даже «five way blind cross over»* опыт) Шиндель [Schindel, 1965] заметил: «По-видимому, авторы думают, что после достижения достаточной «слепоты» осуществляется оккультное зрение». Грандиозный клинический опыт с участием многих клиник, который пропагандировался и осуществлен два десятилетия назад в США Майнлэндом, в Великобритании Хиллом, здесь не обсуждается. Следует только упомянуть, что, как это названо Майнлэндом, «закон Мерфи» («Murphy's Law») — правило из театрального мира * «Пятиступенчатый слепой перевернутый» (англ.). — Прим. ред* 200
«If something can go wrong, it will»* — действует и при сотрудничестве нескольких клиник. Это можно предотвратить прежде всего планированием, осуществлением и оценкой простого и «многобольничного» опыта («multiclinic trials»); авторами все обстоятельно изложено, так что можно рекомендовать обратиться к приведенной литературе. Более поздние обзоры дает журнал «Methodik der Information in der Medizin. Internationale Zeitschrift fur die Methodenlehre der medizinischen Forschung, Information und Dokumentation» — бывший журнал «Medizinische Dokumentation». 2.1.6. ОБЪЕМ ВЫБОРКИ ДЛЯ КЛИНИЧЕСКОГО ЭКСПЕРИМЕНТА В каждом клиническом опыте, при любом сопоставлении двух методов лечения для определения надлежащего объема двух групп пациентов необходимо прежде всего ответить на три вопроса: 1) чему должен быть равен риск обнаружения ложного различия двух методов лечения, которые на самом деле вообще не различаются? (Этот риск мы определим как уровень значимости а); 2) как велик должен быть риск высказывания ложного суждения «нет значимого различия» о двух методах лечения, которые на самом деле отчетливо различаются? (Этот риск обозначают |3). Мы познакомились с ним (риск II) в разделе 1.4.3. «Мощность» статистического критерия или некоторого эксперимента определяют как A—Р). Эксперимент имеет мощность критерия, по крайней мере, равную 0,95, если установлено, что из 20 случаев принятия решений ошибаются только в одном, упуская значимую разницу; 3) как велико должно быть наименьшее, но еще важное различие двух методов лечения? Это различие обозначают А и указывают в процентах. Обычными ответами на эти вопросы являются: 1) нуль; 2) нуль; 3) любое фактическое различие. Теперь легко ответить на вопрос об объеме выборки: обе группы должны иметь бесконечно много пациентов! Из этого следует, что для получения подходящего объема выборки необходимо допустить оба риска; кроме того, различие не должно быть слишком малым (см. обсуждение на с. 113). Задачу нахождения требуемого объема выборок лучше всего решать приближенным методом Шнейдермана [Schnei- derman, 1964], который предполагает нормальное распределение. Рис. 34 дан для двусторонней постановки задачи Bа = 0,05) — т. е. проверяемый метод лучше или хуже стандартного метода лечения—и для 4 уровней риска II (кривые для 0 = 0,5; 0,10; 0,20; 0,50), а также для разностей методов лечения (р2—Pi), равных 5 и 10% (левый рисунок), 15 и 20% (правый рисунок). По оси абсцисс отложена доля выздоровевших рх для стандартного метода и по оси ординат — требуемый объем выборки (пример см. ниже). ¦ «Все, что может испортиться — портится» (англ.). — Прим. ред* 201
Ё этом и следующих разделах для обозначения односторонней постановки задачи (одностороннего критерия) используем символ а, для двусторонней постановки (двустороннего критерия) — символ 2а (т. е. а = аодн и 2а = аДВуст)- ?000 2000 1000 500 wo (р2-р1)-Ж. - /'*< f I . I . c Мощность ' &\05.95~ ~^^-2fi:10.90 ш ~^Z- fl*20.8Q ^T^2Z^05.95: - ^ -КЩО. till 1 ' I ' I ' I МОЩНОСТЬ йкО5 .95 — (p2-p1)*J5 (p2-pi)--20 .00 JO .20 .30 .40 Ю .00 JO .20 JO .40 Рис. 34. Номограмма для определения объемов двух выборок пациентов для ситуации «успех — неудача». Непрерывные линии на левом рисунке — для различия по величине в 5%: линии на правом рисунке — для различия по величине в 15%. Пунктирные линии — для различия в 10% (слева) и в 20% (справа). Уровень значимости Bа=0,005) справедлив для двустороннего сравнения. Для четырех ступеней риска II (р) даны соответствующие мощности критерия. На левом рисунке штриховые линии демонстрируют (слева внизу) определение необходимого объема выборки для 2а=0,05; 0=0,10 (мощность 90%), ожидаемый процент выздоровления pi=20% для стандартных методов лечения; требуемая разница — 10% (р2—pi=0,10). Вертикальная прямая на уровне pi=0,20 продолжается до пересечения с кривой E=0,10, слева считываем объем выборки (я1=/г«410) (табл. 42 показывает /2i=«2=412). [Schneiderman M. A. The Proper Sire of a Clinical Trial «Grandma's Strudeb Method, J. New Drugs, 4A964), 3-11]. Для любого значения риска I задачи этого типа решают с помощью табл. 42 (см. также на с. 321 несколько более точный метод для одностороннего критерия). Прежде всего необходимо определить по табл. 43 некоторые константы. Обозначим их z и гр. Вновь возьмем пример рис. 34 для контроля нашей оценки с помощью номограммы. Поскольку мы назначим 2а = 0,05, из табл. 43 получаем значение z = = 1,9600. Риск II: р = 0,10 дает нам z$ = 1,2816. Для стандартного метода рх = 0,20. Таким образом, имеем три первые позиции А, В, С. Так как мы ожидаем увеличения результативности лечения на 10%, получаем долю выздоровевших для нового метода р2 = 0,20 + 0,10 = = 0,30 (D). Следуя схеме, получаем объем выборок для каждой из двух групп (U). Учитывая еще то обстоятельство, что подсчитанные значения представляют дискретные переменные, а величины z и z$ базируются на непрерывном нормальном распределении, получим (Z) объем выборки с поправкой на непрерывность (nh). V есть «быстрая» оценка объема выборки с учетом поправки на непрерывность (tl'k). 202
Таблица 42. Схема оценки объема выборки по Шнейдерману с примером (см. данные рис. 34) U:n С V: nk' W: X: У: Z: nk Позиция A: z B: zp C: Pl D: p2 ЕГр F: <7i 0: g2 H\~~g J: "pq K: ptfi L: p2g2 M: 2pg N • ^Pigi P: Q: R: S: T: Вычисление a = 2a = P = C + D 2 1 — С 1— D 1-Е E.H C-F D-G 2-/ K + L ¦/M /? AP + BQ \C-D\ R/S Пример 0,025 0,05 0,10 1,9600 1,2816 0,20 0,30 0,25 0,80 0,70 0,75 0,1875 0,1600 0,2100 0,3750 0,3700 0,6124 0,6083 1,97990 0,10 19,7990 Без поправки на непрерывность | Г2 | 392,00 = 392 «быстрой» оценкой поправки на непрерывность | U + 2/S | 412,00=412 С точной поправкой на непрерывность 4,3200 /W Т-Х S V + Y 2,0785 411,52 411,76-412
Таблица 43. Отдельные значения вероятностей нормального распределения для одно- и двустороннего критерия (дополнить табл. 13) Примечания 1. Групповые испытания. Во время II мировой войны каждому призывнику в США делали реакцию Вассермана (непосредственная проверка на сифилис). Положительная реакция была относительно редкой, примерно у 2% подвергавшихся проверке. Так как метод чувствителен, для сокращения проводимых исследований было предложено обрабатывать смешанные пробы крови от нескольких лиц. В случае отрицательного результата все входящие в группу лица считались здоровыми. Положительная реакция означает, что все входящие в группу должны быть обследованы вновь, Можно показать [Dorfman, 1943], что при частоте заболевания 2% оптимальный объем группы составляет 8 человек. Объем проводимых исследований сокращается при этом на 73% (табл. 44, см. также [Sobel, Groll, 1959]). Следует упомянуть еще, что вероятность появления в случайной выборке объемом п по крайней мере одного больного составляет Р = = 1 — A — р)п, где р — относительная частота болезни среди населения. 2. Правило 37%. Предположим, что руководитель ищет новую молодую секретаршу и имеются сто претенденток на место. Предположим далее, что тотчас по ознакомлении с претенденткой руководитель должен решить, зачисляет ли он ее на работу или нет. В таком случае вероятность выбора не лучшей кандидатуры составляет только 1%. Оптимальная стратегия, которая позволяет увеличить вероятность наилучшего выбора до 37%, состоит втом, чтобы ознакомиться с первыми 37 девушками и затем принять на работу первую же претендентку, которая превосходит своих предшественниц. Число 37 (точнее, 36,788) представляет собой отношение числа претенденток A00) к константе е (е = = 2,7 loo). Если вместо 100 в конкурсе участвуют п секретарш, то оптимальной стратегией является ознакомление с п/е девушками и зачисление на работу первой следующей претендентки, превзошедшей своих предшественниц. Вероятность выбора наилучшей кандидатуры в этом случае составляет 37%. Если же известно точное «распределение претенденток», то вероятность даже повышается при- in?fiHTeJIbH0 до 58%' как это показано в исследовании [Glibert, Mosteller, 1966J. Предположим, 30 наездников со своими лошадьми участвуют в турнире. Для определенного заезда лошади распределяются в соответствии со жребием. Вероятность того, что ни одному наезднику не достанется своя лощадь, и в этом р 0,000001 0,00001 0,0001 0,001 0,005 0,01 0,02 0,025 0,03 0,04 0,05 0,06 0,07 0,08 0,09 0,1 0,2 0,3 0,4 0,5 Критическое односторонний критерий 4,7534 4,2649 3,7190 3,0902 2,5758 2,3263 2,0537 1,9600 1,8808 1,7507 1,6449 '1,5548 1,4758 1,4051 1,3408 1,2816 0,8416 0,5244 0,2534 0,0000 значение г двусторонний критерий 4,8916 4,4172 3,8906 3,2905 2,8070 2,57581 2,3263 2,2414 2,1701 2,0537 1,9600 1,8808 1,8119 1,7507 1,6954 1,6449 1,2816 1,0364 0.8416 0,6745 Таблица 44 Относительная частота 0,01 0,02 0,05 0,10 0,20 Оптимальный размер групп 11 8 5 4 3 Сэкономленные испытания, % 80 73 57 41 18 204
случае примерно 37%. Интересно, что вероятность для объема выборки п > 6 составляет около 36,8%. Для большего п она вновь приближается к значению Me = 0,367879. 2.2. ПОСЛЕДОВАТЕЛЬНЫЕ ПЛАНЫ Один из современнейших разделов статистики — последовательный анализ был развит во время II мировой войны Вальдом (Wald). Последовательный анализ до 1945 г. оставался военной тайной, так как он тотчас был признан наиболее рациональным методом непрерывного контроля качества в промышленном производстве. Элементарное, но обстоятельное изложение метода с многочисленными примерами опубликовано исследовательской группой Колумбийского университета (Sequential Analysis of Statistical Data: Applications, New York: Columbia University Press, 1945). Дэвис [Davies, 1956] и Вебер [Weber, 19671 также дали очень хорошее введение в последовательный анализ. Библиография имеется в [Armitage, 1960], [Jackson, 1960], [Johnson, 1961] и [Wetherill, 1966]. Основной принцип последовательного анализа состоит в том, что после согласованного установления вероятностей ошибок 1-го и 2-го рода, аир, при заданном различии рассматриваемой генеральной совокупности необходимый для надежного определения этого различия объем выборки является случайной величиной (с определенным математическим ожиданием). Предполагается случайная выборка из бесконечной генеральной совокупности. Проводят соответственно только безусловно необходимое количество наблюдений. Это преимущество становится ощутимым прежде всего в случае, когда каждое наблюдение требует много времени и является дорогостоящим, а также в случае, если данные наблюдений можно получить лишь в ограниченном объеме. По результату каждого отдельного наблюдения, отдельного опыта устанавливают, следует ли продолжить опыт (или последовательность экспериментов) или уже может быть принято решение. Различают численные и графические способы и среди последних—так называемые открытые последовательные планы и замкнутые последовательные планы; последние в отличие от открытых планов всегда приводят к решению. С ними мы познакомимся несколько ближе. Они позволяют проводить сравнение двух медикаментов или методов без вычислений. Если новый препарат А сравнивают с другим медикаментом В, то по принципу выравненного чередования образуют пары пациентов. Оба пациента принимают препарат одновременно (или вскоре друг за другом), причем жеребьевка решает, какой пациент должен получить медикамент А. Оценка эффекта производится по следующей шкале: средство А лучше средства В; средство В лучше средства Л; нет никакого различия. Если средство А лучше, отмечают крестиком на рис. 35 — последовательный план^развитый Броссом [Bross, 1952] с особым учетом медицинских проблем,"— поле перпендикулярно над черным квад- 205
ратом; если лучше средство В — выделяют поле рядом по горизонтали. Если различия нет, никаких пометок на плане не делают, но, однако, на особом "листе отмечают этот результат. Результат второго опыта наносят" точно" таким ""же * образом, как и в первом опыте, но в качестве опорного квадрата'служит поле, выделенное в первом""опыте; при третьем опыте—поле, отмеченное во втором опыте, и т/д. Как только в ходе серии опытов будет'нарушена граница, с вероятностью ошибки 2'а«10% (см. замечание на с. 202 к символу а) справедливо: верхняя граница: А > В, медикамент А лучше; нижняя граница: В>А> медикамент В лучше; средняя граница: А = В, значимого различия не установлено. - й> р В ё ш Щ ¦¦¦¦Щ Ш2о(*0,05 F t nlllJT^ B>ff 0 5 10 15 20 25 30 0 5 Ю 15 20 25 30 35 В лучше, чей й Рис. 35. Два последовательных плана испытаний по Броссу (C^0,05). [Bross I. Sequential medical plans, Biometrics 8, 188—205 A952)]. На вопрос, какое различие является для нас значимым, еще предстоит ответить. Очевидно, что тем быстрее можно установить различие и тем меньше требуется серия экспериментов, чем больше установленное значимое различие; точнее, максимальный объем серии опытов зависит от этого различия. С каким количеством пар в данном случае должно быть проведено испытание, определяет только ход самого эксперимента! Если мы получаем почти только одни результаты «никакого различия», то решения придется ждать долго. Как правило, такие случаи встречаются редко. Если мы рассматриваем процент пациентов, излеченных старым медикаментом р1$ и процент пациентов, излеченных новым медикаментом р2» то ПРИ сравнении в первом и в каждом последующем опыте имеются следующие возможности: Таблица 45 № п/п 1 2 3 4 Старый медикамент Выздоровел Не выздоровел Выздоровел Не выздоровел Новый медикамент Выздоровел Не выздоровел Не выздоровел Выздоровел Вероятность РхшРг (l-ftHl-Л) ЛA-Л) A— Pi)Pu 206
Так как нас интересуют только 3-й и 4-й случаи, мы получаем для доли, в которой происходит случай 4, кратко обозначенной р+: р+ = Р. О-Л) 9 B.3) Pi(l-p2)+(l-Pi)P2 Если рг = р2, то независимо от того, какое значение принимает plt р+ равняется 1/2. Если мы теперь предположим, что новый медикамент лучше, т. е. р2 > р1% то р+ становится больше 1/2. Бросс предложил для обсуждаемого плана последовательных опытов, что если р2 достаточно велико по сравнению с р19 так что р+ = 0,7, то различие между двумя медикаментами можно расценивать как «значительное». Это означает: если старым медикаментом излечивалось 10, 30, 50, 70 или 90% пациентов, то соответствующие проценты для нового медикамента составляют 21, 50, 70, 84 и 95%. Видно, что наибольшее различие двух методов лечения имеет место, если процент излечиваемых старым лекарством пациентов составлял 30—50. При этом максимальный объем серии опытов становится наименьшим. Известно, что, если методы лечения имеют едва заметный успех или почти всегда дают успешный результат, необходимо выполнить значительный объем экспериментов, чтобы получить отчетливое различие между двумя методами. В целом при использовании метода последовательного анализа необходимо выполнить около двух третей наблюдений, требующихся при обычных классических методах. Возвратимся к рис. 35 и исследуем мощность этого последовательного критерия, который разработан для средних и коротких серий опытов и средних различий. Если различие между двумя методами лечения отсутствует (р+ = 0,5), то различие определяется ошибочно с вероятностью ошибки 10%, притом в обоих направлениях (Pi> P2> Рг> Pi)> T- е. примерно в 80% случаев мы бы правильно констатировали: какое-либо значимое различие отсутствует! Если для двух методов лечения имеет место значимое различие (р+ = 0,7; следовательно, р2 значимо больше рх), то общая вероятность ошибочного решения составляет уже только приблизительно 10%, или в 90% случаев мы признаем превосходство нового метода. Шансы сделать правильный вывод возрастают с 80% (р+ = 0,5) до 90% (р+ = 0,7). Если различие между обоими медикаментами незначимо (р+ = = 0,6), то мы делаем правильный вывод, что новый метод лечения обладает преимуществом примерно в 50% случаев. Вероятность того, что мы признаем (ошибочно) лучшим старый метод лечения, тогда менее 1 %. Если мы хотим обнаружить очень малые различия двух методов, то необходимо использовать другие схемы последовательных опытов с намного более длинными сериями опытов. Смотря по обстоятельствам, в таком случае необходимо заменить симметричную схему с двусторонним критерием — другой, с односторонним критерием (#0 : А > В, НА- А < В), при которой средняя область (на рис. 35 это область А = В) объединяется с областью В > А. Это целесообразно, когда старый метод лечения хорошо изучен, оправдал надежды, и новый метод должен быть введен только в слу- 207
20 W чае, если будет доказано его однозначное превосходство. Для этой цели Спайсер (Spicer) разработал одностороннюю схему последовательных опытов (рис. 36). Если А > В — новый метод принимают, если В > А — отклоняют. Схема односторонних опытов по Спайсеру [Spicer, 1962] (см. [Ailing, 19661) имеет то преимущество, что максимальный объем выборки относительно мал, особенно тогда, когда новый метод лечения фактически не превосходит старый. Поэтому такая схема пригодна главным образом для предварительных опытов, когда, например, надо испытать несколько новых комбинаций лекарств, из которых большинство не представляет собой действительного прогресса. То, что производится одностороннее испытание, для клинических экспериментов почти не является недостатком, так как ответ на вопрос — хуже или не хуже новый метод лечения — не может вызвать*Ъсобого интереса. Специально для регистрации экономически важных различий между двумя группами организмов Коул [Cole, 1962] разработал «быстрый» последовательный критерий (рис. 37), который позволяет быстро определять большие различия. При этом сознательно избегают чрезмерного подчеркивания минимальных различий, что приводит к некоторому увеличению ошибки второго рода. Принять неверную нуль-гипотезу — «неверный негативный диагноз» — в медицине менее опасно, чем обратное — отклонить правильную нуль-гипотезу. Если должно быть выявлено малое различие, «быстрый» критерий* разработанный для предварительных опытов, необходимо заменить более чувствительной процедурой. Если принят один из трех изложенных планов или другой план и обе выборки получены по принципу выравнивающих чередований, то после длительной серии опытов без однозначного результата часто целесообразно (а с этической точки зрения это также следует приветствовать), чтобы следующего пациента лечили в зависимости от исхода последнего опыта. Если новый метод лечения успешен, то пациента лечат по новому методу; если имела место неудача, пациента лечат старым методом. Опыт следует считать законченным в случае, если нарушены границы схемы последовательных опытов или если отношение пациентов, лечащихся по одному методу, к числу пациентов, лечащихся другим методом, достигло отношения два к одному. В заключение важно подчеркнуть, что использованию последовательного анализа в медицине положен естественный предел также иО Ю 20 В лучше, чем Я Рис. 36. Последовательный план по Спайсеру (а ^0,05; Р^0,05; р+= =0,8).' [Spicer С. С. Some new closed sequential designs for clinical trials, Biometrics 18 A962), 203—211]. 208
при наличии жестких данных. Во-первых, его применение целесообразно только тогда, когда индивидуальные периоды лечения невелики по сравнению с общей длительностью эксперимента, и, во-вторых, малая выборка не может дать объяснение побочным и вторичным эффектам новой терапии, например, возможным осложнениям. По сравнению с классическими методами решающим преимуществом по- 10 20 В лучше, чей й Рис. 37. Последовательный план по Коулу Bа с~0,10; Р~0,10; р+=0,7). [Cole L. М. С. A closed sequential test design for toleration experiments, Ecology 43 A962), 749-753]. следовательного анализа является то, что относительно малые серии опытов при экспериментировании без вычислений позволяют сделать выводы и не могут привести к слишком схематическому использованию этого метода. 2.3. ОЦЕНКА БИОЛОГИЧЕСКИ АКТИВНЫХ ВЕЩЕСТВ НА ОСНОВАНИИ АЛЬТЕРНАТИВНЫХ КРИВЫХ «ДОЗА — ЭФФЕКТ» Препараты, предназначенные для фармацевтического применения и включающие фармакологически активные компоненты, испытывают на животных, растениях и микроорганизмах. Первый шаг состоит в том, что устанавливают вид кривой «доза — эффект». Под этим понимают геометрическое представление измеренных реакций в зависимости от дозы медикамента в системе координат, по оси абсцисс которой откладывается доза, а по оси ординат — реакция (чаще всего интенсивность или частота). Различают альтернативные и количественные кривые «доза—эффект», в зависимости от того, альтернативную или количественную оценку реакции получают на их основе. Пример альтернативного соотношения «доза — эффект»: в опытах на токсичность выборкам мышей вводят различные концентрации яда (токсина); по прошествии определенного времени подсчитывают, сколько мышей выжило, сколько умерло. Результатом опыта является «Да» или «Нет», «Все» или «Никто», следовательно, альтернатива. 209
Пример количественного соотношения «доза — эффект»: несколько групп каплунов получают каждая определенную дозу различно замещенных производных тестостерона; эффект измеряется увеличением длины и высоты гребешка. Результат опыта имеет, следовательно, количественное выражение. В фармакологии и токсикологии важно понятие средней эффективной дозы (EDb0), под которой понимается доза, вызывающая эффект у половины лечащихся индивидов. Ее оценка осуществляется по альтернативным зависимостям «доза — эффект». По кривой накопленных процентов или накопленной функции распределения, для которой в большинстве случаев используют логарифмический масштаб по оси абсцисс, можно установить, у какого процента животных при этой и больших дозах обнаружен эффект и у какого процента при этой и меньших дозах не обнаружена реакция. Симптомом может быть смерть или выживание (для ядов 50% —летальная доза, LD50 — доза, при которой погибает 50% подопытных животных). Можно также контролировать другой симптом, как, например, неспособность к управлению автомобилем при алкогольных дозах (содержание алкоголя в крови в долях процента) или наступление наркоза при дозировании наркотизирующих веществ. ED100 — наименьшая доза, при которой следует ожидать 100%-ного действия наркоза. L Определение ED50 (соответственно LD&0) в большинстве случаев происходит с помощью пробит-анализа. Поскольку этот метод требует значительного объема вычислений, разработан ряд более простых, более пригодных для обычных исследований способов, которые позволяют получить математическое ожидание и дисперсии по зависимости «доза — эффект». При трех нижеследующих условиях значение для EDbQ получают приближенно: 1) дозы симметрично сгруппированы относительно среднего значения (значения накопленных процентов определены от 0 до 100%); 2) отличие фаз друг от друга, или логарифм отношения для каждой из двух последовательных доз, должны поддерживаться постоянными; 3) отдельные дозы должны быть распределены по одинаковому числу индивидов. Рекомендуется выбирать для каждой отдельной дозы максимум 6 индивидов и если в распоряжении имеется больше индивидов, уменьшать разницу между дозами. Это особенно справедливо для предложенного Олехновичом [Olechnowitz, 1958] метода, на который следует обратить внимание. Мы же в дальнейшем займемся методом Спирмэ- на — Кёрбера (Spearman, Karber). Оценка средней эффективности или летальной дозы по методу Спирмэна — Кёрбера Метод Спирмэна — Кёрбера (см. [Bross, 1950], [Cornfield, Mantel, 1950], а также [Brown, 1961], представляет собой приближенный непараметрический метод, который позволяет быстро получить очень хорошие оценки математического ожидания и стандартного отклоне- 210
ния. Если распределение симметрично, то оценивают значение медианы — медианную эффективную дозу (median effective dose) или медианную летальную дозу (median lethal dose), равные дозам, при которых у 50% подопытных животных обнаруживается реакция или наступает смерть. При упомянутых выше условиях и дополнительной гипотезе, что данный тип распределения скорее нормальный, чем логарифмически нормальный, справедливо LDb0 или EDb0 = т = xk—d (Si—1/2). B.4) При этом xh означает наименьшую дозу, начиная с которой всегда наблюдается 100%-ная реакция; d — отличие доз друг от друга; Si — суммарная доля реагирующих индивидов (при положительной реакции, см. табл. 46). Стандартное отклонение sm, соответствующее ED50y оценивают по формуле sLD50 или sED69=:sm = dV 252— Si—Sf—1/12, B.5) в которой S2 — сумма непрерывно суммируемых накопленных долей реагирующих индивидов. Пример Таблица 46 Доза, мг/кг 10 15 20 25 30 35 40 45 d—интервал между Число умерших 0 0 1 3 3 4 5 5 6 дозами =5 Доля мышей 0 0 0,17 0,50 0,50 0,67 0,83 0,83 1,00 4,50=5х Накопленная доля 0 0 0,17 0,67 1,17 1,84 2,67 3,50 4,50 14,52 =S2 В табл. 46 приведены результаты опыта по определению средней смертельной (летальной) дозы чрезвычайно сильно действующего анестезирующего средства. На дозу приходилось по 6 мышей. т = xh—d (Si—I т ** 50—5 D,5—0,5); т = 30; sm = dV2St—S1—S\—lll2; , = 51/2-14,52—4,5—4,52-0,083; 211
s m = 10,26. Отсюда можно установить 90%-ные доверительные границы для истинного значения: т ±1,645 • sm = 30±1,645 . 10,26 (распределение предполагается приближенно нормальным). т /72„ верхи 1=30 ±16,88= Г 46,88 мг/кг; 13,12 мг/кг. Таблица 47 Примеры не на биоиспытания мы не рассматриваем. Сами по себе эти критерии являются проверкой на чувствительность, при которой объект реагирует при превышении некоторого порога приблизительно так же, как наземная мина, реагирующая на сотрясение определенной интенсивности. Эти распределения отличаются незначительным размахом относительно их среднего значения. В большинстве случаев значения распределены примерно по нормальному закону. Для биоиспытаний характерным является то, что переход от линейной к логарифмической шкале доз приводит к «симметрированию» и «нормализации» распределения минимально эффективных доз. Если имеет место приближенно нормальное распределение, то т и sm рассчитывают по формулам: Доза, мг/кг 4 16 64 256 1024 Доля умерших животных 0/8 = 0 4/8 = 0,50 3/6 = 0,50 6/8 = 0,75 8/8= 1,00 5 = 2,75 = xh—d(S —1/2); S™= — B.6) B.7) Здесь приняты обозначения: т — оценка логарифма EDb0 или LDb0; xk — логарифм наименьшей дозы, начиная с которой наблюдается 100%-ная реакция; d — логарифм отношения двух последовательных доз; S — сумма долей реагирующих индивидов; Pi—частота реакции для t-й дозы (i = 0,1,2,..., k) в процентах; х0 — логарифм наибольшей дозы, на которую не реагирует ни один реагент или животное. Следовательно, р0 = 0% и pk = 100%; rtt — число подопытных животных или реагентов, получивших i-ю дозу (t = 1,2, ..., k). Из трех условий, оговоренных на с. 210, здесь необходимы лишь первые два. Несмотря на это, рекомендуется применять одинаковые по объему выборки nt. На практике иной раз трудно выполнить требование 1 — испытать при всех обстоятельствах по крайней мере одну дозу с полным отсутствием реакции и по крайней мере одну дозу с реакцией. В этих случаях оценивают х0 или .(и) лг^; результаты, полученные в этом случае, менее надежны. 212
Пример В табл. 47 приведены результаты опытов по определению средней летальной дозы слабо действующего анестезирующего средства. lg —= lg 4 = 0,6021; lg 1024 = 3,0103; 4 т = lg 1024—lg 4 B,75—0,5); m = 3,0103—0,6021 • 2,25 = 1,6556; antilg 1,6555 = 45,25; LD50 = 45.25 мг/кг; __ Ig4 i /" 50- 5C 1 100 1/ 8—1 50 50-50 75-25 6-1 8-1 ' sm = 0,2019. По выражению /л± 1,96 • sm можно оценить 95%-ные доверительные границы. тв 1 ' Г 2,0513; antilg 2,0513 = 112,54 мг/кг; = 1,6556 ±1,96-0,2019 = тн J L 1,2599; anlilg 1,2599= 18,19 мг/кг. Ради полноты следовало бы указать еще схему действия при проверке разности двух ED50. Если имеются две средние эффективные дозы ?Z?o5 и ?Х>5<> со стандартными отклонениями s' и s", то стандартное отклонение разности ?"Z?6s—EDlo ^J+(sT. B.8) Со статистической надежностью S=99% действительное различие имеется, если справедливо > 2,58.Sj)a3H. B.9) Для определения специфической биологической эффективности препарата на подопытных животных сравнивают его действие с действием стандартного препарата. Из отношения эффективности препарата к эффективности стандартного препарата получают, зная эффективность стандартного препарата, содержание препарата в международных единицах или миллиграммах биологически активного вещества. Можно указать при этом доверительные границы, в которых с большой вероятностью можно предполагать нахождение истинного значения, если только выполнены некоторые предположения. Более подробно о биоиспытаниях см. труды International Symposium on Biological Assay Methods (Red. R.H. Regamey), Karger, Basel, New York, 1969, s. 262 (см. [Stammberger, 1970], где имеется список литературы, а также обзоры [Borth, 19573, [Emmens, 19621, [Cavalli- Sforza, 19643, [Ther, 1965], [Oberzill, 1967], [Lazar, 1968], [McArthur, Colton, 1970] и в особенности [Bliss, 19711 и [Finney, 1971]). 213
2.4. СТАТИСТИЧЕСКИЕ МЕТОДЫ В ТЕХНИКЕ Основой технического прогресса является разработанная за последние четыре десятилетия техническая статистика. Под этим понимают совокупность статистических методов, которые применимы в технике или, как контрольные карты, разработаны специально д'ля этих целей. 2.4.1. КОНТРОЛЬ КАЧЕСТВА В ПРОМЫШЛЕННОМ ПРОИЗВОДСТВЕ Предпосылкой для применения статистических методов в технике служит тот факт, что значения показателей технических изделий всегда обладают распределением вероятности. Соответствующие параметры р и а — меры качества изготовления и а — мера однородности технологии, так что их распределение можно рассматривать в качестве визитной карточки продукции. 2.4.1.1. Контрольные карты Мы знаем, что контрольные карты (см. с. 191) необходимы во всех случаях, когда надо иметь удовлетворительное качество изготовления, причем под «качеством» в рамках статистики мы подразумеваем лишь «качество совпадения» (quality of conformance) между образцом и действительным исполнением изделия [Stange, 1965]. То, что сам образец в соответствии с различными требованиями покупателя может принимать различные обличия и принимает таковые, нас здесь не интересует. Стандартные методы графического контроля качества в промышленности базируются на средних значениях. Для текущего контроля производства регулярно берут малые выборки, вычисляют средние значения и наносят их непрерывно на контрольные карты Шьюхарта (Shewhart control chart), на которых отмечены предупредительные границы (marning limits) ±2а и контрольные границы (action limits) ±3а. Если среднее значение выходит за границы За или два последовательных средних значения переходят границу 2а, полагают, что процесс производства изменился. Исследуется причина значительного отклонения, исключается «ошибка», и процесс юстируется вновь. Вместо карты средних значений (я-карты) используют иногда карты медиан (Г-карты). Для контроля разброса процесса служат карты стандартных отклонений (s-карты) или карты размаха (#-карты). На кумулятивные карты для заблаговременного распознавания тренда мы указывали выше (с. 192). Карты размаха Карты размаха (#-кдрты) служат для локализации и устранения чрезмерного разброса. Если найдены и устранены основные причины разброса, их можно заменить s-картами. #-карты обычно используют совместно с лг-картами. #-карты контролируют «разброс между выборками», #-карты контролируют разброс внутри выборки, поэтому в большинстве случаев нижние границы не используются (см. [Hillier, 1967]. 214
Йостроепие и применение R-mptn Построение 1. Взять повторные случайные выборки объемом п = 4 (или п = 10). Всего надо иметь от 80 до 100 выборочных значений. 2. Вычислить размах для каждой выборки и затем средний размах для всех выборок. 3. Умножить средний размах на 1,85 (соответственно на 1,52). Этот результат является значением верхней предупредительной границы 2а. 4. Умножить это значение на величину 2,37 (соответственно на 1,81). Результат является значением верхней контрольной границы За. 5. Обе границы нанести в виде горизонтальных линий на 7?-карты (ординаты соответствуют размаху). Применение Взять случайную выборку объемом п = 4 (или п = 10). Вычислить размах и нанести его на контрольную карту. Если размах а) достигает предупредительной границы 2а или превосходит ее, то необходимо тотчас взять новую выборку, б) если он достигает контрольной границы За или превосходит ее, то процесс вышел из-под контроля. Наряду с этими контрольными картами имеется еще ряд специальных контрольных карт для наблюдения за исчислимыми признаками, т. е. за «количеством ошибок» и «долей брака». В первом случае качество изготовления оценивают числом ошибок на единицу испытаний, например числом погрешностей цвета и фактуры на 100 м длины костюмной ткани. Так как эти погрешности появляются относительно редко, контрольные границы вычисляются с помощью распределения Пуассона. Если отдельные изделия оценивают просто как «с изъяном» или «без изъяна», «хорошие» или «плохие» и за меру качества выбирают относительную долю брака, то используют р-карты, с помощью которых контролируют количество бракованных изделий. Границы вычисляются в этом случае с помощью биноминального распределения. Следует обратить внимание на так называемую биномиальную бумагу (см. с. 161) и на Мостеллер — Тьюки — Кайзер-тест (МТК-выбороч- ный тест), разработанный фирмой Beuth. Детальное описание различных видов контрольных карт дано в^ [Schindowski, Schiirz, 1966], а также содержится в соответствующих главах книг по контролю качества. Логарифмически-нормально распределенные данные контролируются по Феррелу [Ferrell, 1958] и Моррисону [Morrison, 1958]. Изящный способ контроля качества, основанный на методе последовательного анализа, предложили Бейтлер и Шамблин [Beightler, Shamblin, 1965]. Имеется обзор [Knowler, 1969]. 2.4.1.2. Приемочные испытания За непрерывным контролем производства при посредстве контрольных карт идут приемочные испытания готовой продукции, проводимые изготовителем или покупателем (оптовиком). Оба заинтересованы в удовлетворительном уровне качества, договариваются о допустимом и неприемлемом проценте брака и об уровнях значимости, соответст- 215
вующих обеим долям брака (риск поставщика— отклонение еще хорошей партии продукции; риск покупателя — прием уже плохой партии), и устанавливают таким образом план испытания выборок. (Характеристика приема или оперативная характеристика (см. с. 123) плана дают вероятность приема партии изделий в зависимости от ее процента брака.) На практике при определение планов выборок пользуются уже готовыми таблицами, из которых можно заимствовать объем выборки п и допустимое число приемки а. Число приемки а есть допустимое число плохих изделий в выборке объемом я, когда поставка еще должна быть принята. Если, например, находят по таблице значения п = 56, а = 1, то из поставляемой партии необходимо проверить 56 изделий и отвергнуть партию, если обнаружатся два и более бракованных. Специальную литературу, а также планы-для испытаний «хорошо — плохо» и для испытаний, в ходе которых производятся измерения, см. в первую очередь в [Bowker, Lieberman, 1961], [Schlndowski, Schurz, 1966], а также в [Stange, Henning, 1966]. В особенности следует обратить внимание на двойную вероятностную бумагу для определения планов контроля [Stange, 1962, 1966]. 2.4.1.3. Улучшение качества Необходимость улучшения качества представляет собой как инженерную, так и экономическую задачу. Прежде чем приниматься за нее, необходимо установить, какими входными переменными можно объяснить большую дисперсию а2, и только тогда можно реши!Ь, что именно необходимо улучшить. «Дисперсионный анализ» (см. гл. 7), с помощью которого отвечают на этот вопрос, делит входные переменные на «эффективные», или существенные, и «неэффективные», или несущественные. Для этого наблюдаемую общую дисперсию разлагают на составляющие, которые относятся к комплексам причин. С помощью такого разложения можно установить, какие меры могут обещать успех, а какие — с самого начала безрезультатность. Чтобы получить желаемый результат, необходимо управлять «существенными» компонентами! Только в результате дисперсионного анализа создаются необходимые предпосылки для рационального решения комплекса технико-экономических вопросов, связанных с улучшением качества. Чрезвычайно интересный и важный частный случай улучшения качества — поиск благоприятных условий производства (см. Уайлд [Wilde, 1964]). В технологических процессах выходная величина, т. е. выход продукции, степень чистоты или производственные расходы, зависит в общем случае от многочисленных входных переменных: использованные материалы, вид и концентрация растворителей, давление, температура, время реакции и т. д. Желательно выбрать входные переменные таким образом, чтобы выходная величина имела максимум или — при издержках — минимум. Экспериментальный поиск оптимального решения является задачей трудной, требующей много времени и дорогостоящей. Методы, минимизирующие необходимые экспериментальные расходы, весьма 216
ценны для практики. Особо хорошо зарекомендовал себя описанный Боксом и Уилсоном [Box, Wilson, 1951] метод крутого восхождения (см. [Brooks, 1959]). Хорошее изложение этого метода крутого восхождения («Steepest ascent method») с примерами дано в [Davies, 1956] и [Duncan, 1959]. Если этот не совсем простой метод используют при разработке новых методов, говорят о « Response Surface Experimentation» [Hill, Hunter, 1966], [Burdik, Naylor, 1969]. К сожалению, трудно или даже невозможно точно соблюдать в промышленном производстве лабораторные условия. Практические условия всегда более или менее отклоняются от идеальных. Если в производство внедряют технологию, оптимально построенную в лаборатории, то производят в «теперь уже полностью пригодном способе» ряд небольших систематических изменений всех входных переменных, рассматривают после каждого изменения результат, затем вновь производят изменения, чтобы поэтапно довести технологию до оптимума; этот процесс представляет собой оптимизацию производства с помощью «эволюционного планирования» (Evolutionary Operation). Более подробно об этом см. работы Бокса, а также обзор [Hunter, Kittrel, 1966]. Примеры даны в [Bingham, 1963], [Kenworthy, 1967] и [Peng, 1967] (см. также [Ostle, 1967] и [Lowe, 1970])*. 2.4.2. СРОК СЛУЖБЫ И НАДЕЖНОСТЬ ТЕХНИЧЕСКИХ ИЗДЕЛИЙ Срок службы технических изделий (во многих случаях измеряемый не временными единицами, а в единицах пользования — у ламп накаливания, например, в часах горения) является важнейшей мерой качества. Если хотят вычислить приходящуюся на год потребность в замене или правильно оценить емкость складских помещений для запасных частей тех типов, производство которых прекращено, то необходимо знать их средний срок службы, или, еще лучше, кривую жизни, или кривую отказов. Кривая отказов (абсцисса — время от t0 до tmax, ордината — относительная доля еще имеющихся элементов F (t) = = п (t) 100//г0 (%), F (tQ) = 100 до F (*max) = 0) имеет нормальный г-образный вид. Если хотят определить, в какой мере новые методы производства, иные средства защиты и ухода, новые материалы или изменившиеся экономические условия влияют на срок службы технических элементов, то правильное решение невозможно без знания кривой^отказов. В то время как кривая отказов (потерь) биологической совокупности, как правило, изменяется медленно во времени, для технических и экономических совокупностей она существенно зависит от состояния техники и господствующих в данный момент экономических условий. Такие кривые отказов поэтому значительно менее стабильны. Их нужно, строго говоря, контролировать в течение длительного времени. Для этих целей следует обратить внимание на изящный графический метод. * Горский В. Г., Адлер Ю. П. Планирование промышленного эксперимента. М., 1974. — Прим. ред. 217
Если так называемый характерный срок службы обозначить через время — t и крутизну — а, то кривая отказов F (/) принимает про- F(t) = e V т ) ш B.10) В надлежащим образом преобразованной функциональной сетке — сетке срока службы Штанге [Stange, 1955] — эти линии преобразуются в прямые. Через ряд наблюдаемых точек {/; F (t) = n (t) I n0} — достаточно немного точек — рисуют выровненные прямые. Считывают соответствующие параметры 7\ а и также отношение срока службы IIТ. Средний срок службы t в таком случае равен t = (t/T) Т. Рассмотрение точности, а также примеры линий отказов технических товаров широкого потребления и экономических комплексов из различнейших областей надо заимствовать из оригинальных работ, в которых указываются также контрольные примеры, с тем чтобы не возникало впечатление, как будто бы все линии отказов можно преобразовать в прямые. Особенно полезной является сетка срока годности при анализе сравнительных опытов. Уже после сравнительно короткого наблюдения получается ответ на вопрос, продлевает ли новый метод срок службы! Для первого представления во многих задачах о сроке службы применяют экспоненциальное распределение. Приближенно распределенными по экспоненциальному закону (плотность распределения вероятности падает с ростом переменной) являются, например, срок службы радиоламп и длительность телефонных разговоров, которые ежедневно регистрируются на телефонной станции. Плотность вероятности B.11) #>0, 0>О и накопленная плотность вероятности (функция распределения) F (х) = l—e-o* B.12) экспоненциального распределения имеют простой вид. Среднее значение и дисперсия этого распределения определяются выражениями: р= 0-1, а2 = 0-2. B.13, 2.14 Важные критерии предложены в [Nelson, 1968], а также в [Kumar, Patel, 1971] (см. также [Kabe, 1970]). Пример Для ремонта автомобиля требуется в среднем 3 часа. Какова вероятность того, что время ремонта составит самое большее 2 ч? Предположим, что время, необходимое для ремонта автомобиля t и измеряемое в часах, подчиняется экспоненциальному распределению с параметром 9 = З — 1/3. Получаем тогда вероятность Р (t > 2) - F B) = 1-е Vs = 1—0,513 - 0,487, близкую к 50%, 218
Существенно большое значение для задач срока службы и надежности имеет рассматриваемое как обобщение экспоненциального распределения распределение Вейбулла (Weibull). Оно характеризуется тремя параметрами, может аппроксимировать нормальное распределение и принимать формы разнообразных несимметричных кривых. (Причем оно позволяет легко обнаруживать также неоднородность выборок и (или) смешанные распределения. Это очень интересное распределение (см. [Weibull, 1951, 1961], [Као, 1959], [Goode, Као, 1962], [Berettoni, 1962], [Gottfried, Roberts, 1963], [Ravenis, 1964], [Cohen, 1965], [Qureishi, 1965], [Ireson, 1966], [Johns, Lieberman, 1966], [Dubey, 1967], [Harter, 1967], [Mann, 1967], [Nelson, 1967], [Bain, Thoman, 1968], [Morice, 1968], [Pearson, 1969], [Thoman, 1969], [Fischer, 1970], [D'Agostino, 1971], таблицы [Plait, 1962]). Плотность вероятности распределения Вейбулла определяется формулой BЛ5) при х > а, Р > 0, у > 0, где а — параметр положения, р — масштаб и у — параметр формы. Как правило, лучше работать с функцией распределения F(x) = l—e V Р I . B.16) На интересных связях между этим распределением и распределением экстремальных значений (см. с. 107) подробно останавливаются Фройденталь и Гумбель [Freudenthal, Gumbel, 1953], а также Либлейни Зелен [Lieblein, Zelen, 1956]. В обеих работах вычислены примеры. Значение других распределений для изучения срока службы см. в [Ireson, 1966], а также в обзорах [Zaludova, 1965] и [Morice, 1966]. Примечания 1. Сравнение нескольких изделий относительно их средних сроков службы удобно провести с помощью таблиц [Nelson, 1963]. 2. Так как электронные устройства (как и живые организмы) особенно ненадежны в эксплуатации в начале и конце срока службы, особый интерес представляет промежуток времени с наименьшим числом отказов, который лежит, как правило, между 100 и 3000 ч. Для определенных доверительных границ среднего промежутка времени между отказами {mean time between failures, MTBF) [Simonds, 1963] даны таблицы и примеры (см. также [Hoheychurch, 1965]). 3. Сравнение двух чисел отказов, когда функции распределения неизвестны (см. также формулу A.185) на с. 180). Если количества отказов в двух типах технических устройств, отнесенные к одному и тому же промежутку времени, обозначить хг и х2, то можно приближенно сравнивать хг и х2 (при хх > х2 и хх + х2 ~ 10) по формуле d = V*7—V^. B.17) 219
Если d > У 2 — 1,41, то разница надежна на 5%-ном уровне. Точнее проверяют для хг > х2 и хг + х2 > Ю принадлежность к одной и той же генеральной совокупности по лежащему в основе B.17) соотношению г = V2 (Vx1—0,5—Vx2+ 0,5). Пример Две одинаковые машины имели в определенный месяц хг = 25 и х2 = 16 отказов. Превосходит ли машина 2 машину 1? Так как d = V25—Vl6 == 5—4 = 1 < 1,41, существует лишь случайное различие (а = 0,05), соответственно У2 (У 24^5—УТб^5) = 1,255 < <С 1,96 = z0>05. Так как средняя надежность редко бывает постоянной в течение длительного промежутка времени — вначале она улучшается, затем в результате старения ухудшается, — она должна регулярно контролироваться. Само собой разумеется, эти соображения справедливы лишь для распределения Пуассона. По произведению средней частоты отказов и среднего времени отказов можно оценить средний суммарный выход из строя. Н ад еж н ость Для промышленной электроники и ракетной техники большое значение помимо срока службы имеет надежность (reliability) приборов. Под надежностью мы понимаем вероятность безотказной эксплуатации в течение заданногб времени. Если элемент имеет надежность 0,99 или 99%, это означает, что на основании длительных серий испытаний установлено, что этот элемент работает на протяжении 99% заданного промежутка времени безотказно. Простые методы и вспомогательные средства даны в [Eagle, 1964], [Schmid, 1965], [Drnas, 1966], [Enrik, 1966], [Oehme, 1966] и [Kanno, 1967]. Нормы можно найти в [Domb- rowski, 1966]. Обзоры сделаны Гнеденко с сотрудниками [1968], [Amstadter, 1970] и [Stormer, 1970]. Предположим, прибор состоит из 300 сложных элементов. Если из этих элементов, например, 284 абсолютно безотказны, 12 имеют надежность 99% и 4 — надежность 98%, то надежность прибора при условии независимости надежностей элементов равна 1,00284 • 0,9912 • 0,984 = 1 • 0,8864 ¦ 0,9224 = 0,8176 а? 82%. Этот прибор никто бы не стал покупать. Производитель должен, следовательно, заботиться о том, чтобы почти все элементы имели надежность, равную 1. Пусть прибор состоит из трех элементов Л, Б, С, которые с вероятностями рл, Рв, рс работают безупречно. Пусть функционирование каждого из этих элементов не зависит от состояния двух других. Тогда для надежности типов прибора I—IV можно составить таблицу: 220
Модепь I Л ш ш -$$$>- Надежность Pi -pr'Pb-pc Рр- / - A -PlJ рш= {1<1-рпJУ{1-{1-рвJ}'{1<1-рсJ} Пример Рд - Pg ~ Pq " и, 98 Р* - 0, 94/19 Рл -0, 99653 Рш = 0, 99930 Рш- 0, 99999 * При больших вероятностях р удобно и с хорошим приближением можно вести расчет с использованием суммы вероятностей отказов: Pj -» 1 —C-0,02) =0,94. Благодаря параллельному включению элементов каждого типа (прибор работает удовлетворительно, пока из трех элементов по меньшей мере один функционирует) может быть достигнута любая надежность прибора. Ограничивают это стремление, во-первых, возрастающая стоимость, во-вторых, необходимое пространство и своеобразный феномен: дело в том, что для каждого элемента возникает вероятность начать действовать, когда это нежелательно. Для очень многих приборных систем применение двух, а еще чаще трех параллельно включенных элементов оказалось оптимальным (см. [Gryha, 1960], [Lloyd, Lipow, 1962], [Pieruschka, 1962], [Roberts, 1964], а также [Barlow, Proschan, 1965]). Система слепой посадки с тройным резервированием позволяет выполнять полностью автоматическую посадку реактивных самолетов при видимости, равной нулю. Каждый элемент в системе повторен трижды. Частота отказов должна быть меньше одной неисправности на 10 млн. посадок. Планирование обслуживания Свойство прибора, установки или системы снова восстанавливать свою работоспособность в определенный промежуток времени с помощью контрольной и ремонтной аппаратуры называется ремонтопригодностью (maintainability). Сложные системы стратегического оружия требуют сложных планов обслуживания. Для подводных лодок Голдмэн и Слаттери [Goldman, Slattory, 1964] рассмотрели 5 возможностей: отказ — затопление, ремонт в порту приписки, ремонт на судоверфи, ремонт на плавбазе, ремонт в подводной лодке. Численное решение этой задачи предполагает наличие соответствующих экспериментальных данных (надежность, время ремонта, вид и число регулярных проверок и т. д.) и данных о рентабельности (например, относительно сравнения между автоматическими контрольными устройствами и человеческим контролем и т. д.). 221
2.5. ИССЛЕДОВАНИЕ ОПЕРАЦИЙ Исследование операций (operations research), или наука об управлении производством (management science), является набором методов подготовки решений по управлению производством. На основе мате- матико-статистической модели отыскиваются с помощью электронных вычислительных машин оптимальные решения для системы в целом, ее обслуживания и перспективного развития. Когда модель записана в виде программы для электронной вычислительной машины и проверена в работе на контрольных цифрах, тогда она имитирует и проигрывает реальные ситуации и выдает результаты, которые переносятся на реальную систему. Это могут быть, например, план перевозок, некоторая химическая технология или прохождение крови через почку. «Имитационные модели» позволяют свободно менять параметры входных переменных и внешних условий и находить решения весьма сложных задач без больших затрат и без опасности неудач. Важную роль в исследовании операций играют имитационные модели и линейное программирование (см. IFlagle, 1960], [Sasieni, 1962], [Shuchman, 1963], IHertz, 1964], [Stoller, 1965], библиография дана в [Brusberg, 1965]; см. также [Moor, 1966]). 2.5.1. ЛИНЕЙНОЕ ПРОГРАММИРОВАНИЕ Интересный метод планирования производства, решающий вопросы оптимального управления на основе системы линейных неравенств, представляет, собой метод линейного программирования (линейного планирования, линейной оптимизации). Нелинейные соотношения иногда могут приближенно заменяться линейными. С помощью линейной оптимизации может, например, решаться задача выпуска нескольких видов продукции с различной прибыльностью и заданной производительностью машин, с тем чтобы получить в результате максимальную общую прибыль. Транспортные перевозки могут быть организованы таким образом, что расходы или время будут минимальными; известна проблема коммивояжера, который должен объехать различные города и вернуться назад, причем надо выбрать кратчайший общий путь. В маталлообрабатывающей промышленности линейное программирование применяется для оптимального размещения оборудования, для уменьшения стружки и других потерь материалов, для решения вопросов об изготовлении или приобретении отдельных изделий. Особенно важно подобное решение об оптимальном распределении транспортных средств, самолетных и корабельных маршрутов при постоянном и неизвестном спросе. Модели такого рода — при неизвестном спросе или при учете различных затрат — особенно интересуют статистиков. Здесь большую роль играет неизвестность, обусловленная случайными факторами (числом туристов, инфляционными тенденциями, квотой занятости, политикой правительства, погодой, авариями и т. д.), распределение которых мало известно или вообще не известно. Простым примером может служить задача о рюкзаке: 222
вес должен быть не более 25 кг, но в нем должно быть все «необходимое» для дальнего похода! Задачей линейного программирования является (см. [Dantzig, 1966]) отыскание оптимума (максимума или минимума) некоторой линейной функции цели, зависящей от нескольких переменных, с учетом ограничений, заданных в виде неравенств. При решении используется так называемый симплекс-метод из геометрии. Дополнительные условия ограничивают целевую функцию внутренней и внешней поверхностями симплекса, т. е. многомерного выпуклого многогранника. Одна из вершин многогранника, которые перебираются по определенной программе на электронной вычислительной машине, и представляет собой искомый оптимум. 2.5.2. ТЕОРИЯ ИГР И ИГРЫ НА МОДЕЛЯХ (PLANSPIEL) Теория игр в отличие от теории вероятностей, которая занимается азартными играми [J.von Neuman, 1928], лотереей, имеет дело со стратегическими играми, в которых участники в течении партии принимают решения по определенным правилам и могут частично влиять на результат игры, как, например, при игре в скат. В игре «Не горячись!» наряду с человеком, который выбирает, какую двинуть фигуру, участвует и случай в виде бросания кости, который определяет число шагов, на которые нужно продвинуть выбранную фигуру. Большинство игр в компании содержит элемент случайности, на который игроки не могут оказать влияния: в карточных играх, например, это сдача карт; в настольных играх — кто начинает партию и тем самым получает право придать партии определенный характер. Игры и ситуации в экономике и в технике имеют много общего: случай, неполная информация, конфликт, коалиция и рациональные решения. Теория игр дает понятия и методы описания процессов с противоположными интересами участвующих сторон. Она занимается вопросом об оптимальном поведении «игрока» в широком классе «игр», наилучшей «стратегией», разрешающей конфликтную ситуацию. Она изучает модели хозяйственной жизни и военно-стратегические проблемы и проверяет, какое поведение индивидуумов, групп, организаций, предпринимателей, командующих армиями, какой план действий, какая стратегия наиболее приемлемы по «шкале пользы» с учетом всех возможных условий и случаев. Существенным является наличие участников с различными целевыми установками, судьбы которых неразрывно связаны друг с другом и которые стремятся к максимальной «пользе», оказывают влияние на «результат игры» выбором своего поведения, но никогда исход игры не могут определить полностью. Стратегические игры на моделях — вычислительные устройства позволяют «экспериментирование на моделях» — показывают последствия различных решений и стратегий. Подробнее об этом см. в [Fogelsang, 1963] и в особенности [Williams, 19661 (см. также [Morgenstern, 19631, [Dresher, 19641, [Charnes Cooper, 1961] или [Shubik, 1965], где имеется библиография), 223
В начале XIX века прусский военный советник фон Райзвитц в Бреслау создал так называемую «игру на ящике с песком», на котором со своим сыном проводил «военные игры». Эта игра вскоре нашла широкое применение при обучении офицеров в Германии. Для введения элемента случайности позднее применили бросание кости; воинские части уже представляли не фигурки, а флажки из целлулоида, накалываемые на карту. С помощью усовершенствованных военных игр были «опробованы» война с Россией 1941 г. (план «Барбаросса»), операция «Морской лев» против Великобритании и наступление в Арденнах 1940 и 1944 гг. [Young, 1959]. Игры преследования (два «игрока»: один пытается ускользнуть, другой пытается его обстрелять) описаны в [Isaacs, 1965]. Подробнее о военных играх см. [Wilson, 1969], а также [Buaknecht, 1967], [Eckler, 1969]. После второй мировой войны методика военных игр была применена в экономике. Из модельных игр по хранению и по снабжению армии США были созданы так называемые модельные игры по управлению производством [Rohn, 1964]. Их задачей является математическое отображение, моделирование с учетом конкуренции (игровые группы конкурируют друг с другом; решения групп принимаются последовательно), экспериментальная проверка политики управления (с входными переменными: продукция, емкость, цена, инвестиции, управление, прибыли, курс акций, наличные деньги, товарность и т. д.) с целью сделать возможным принятие оптимального решения. Моделирование управления производством позволяет, несмотря на неполные и неточные данные и непредусмотримость развития ситуации, проверить альтернативы: проверить взаимодействия и предположения, а также подготовить оптимальные решения и стратегии. Важнейшую помощь при этом оказывают электронные вычислительные машины. 2.5.3. МЕТОД МОНТЕ-КАРЛО И ИМИТАЦИОННОЕ МОДЕЛИРОВАНИЕ Важной задачей исследования операций является расчленение очень сложной задачи на составные, более простые, построение соответствующих математических моделей, программирование моделей на вычислительных машинах и их проигрывание с реальными входными данными: этот метод представляет собой «имитацию». Если выборочные методы слишком дороги или вообще невозможны, то зачастую можно получить приближенное решение и ценные рекомендации на основании «имитационной выборки». Имитационный выборочный метод, как правило, состоит в том, что фактическая совокупность заменяется ее теоретическим описанием, стохастической «имитационной моделью» с предполагаемым распределением вероятностей, и затем выборки получаются из теоретической совокупности с помощью случайных чисел. Для этих целей в большинстве случаев применяют электронные цифровые вычислительные машины, которые генерируют последовательность псевдослучайных 224
чисел с заданным статистическим распределением, например равномерным, нормальным, пуассоновским и т. д. Так как согласно положению из теории вероятностей любая плотность распределения вероятностей может.быть преобразована к прямоугольному распределению с границами нуль и единица и обратно, то можно указанием числа из области 0 -г- 1 получить выборку, значения которой относятся к любому желаемому распределению вероятностей. На этом основан так называемый метод Монте-Карло (см. [Hammers- ley, Hanscomb, 1964], [Бусленко и Шрейдер, 1964], [Шрейдер, 1964], [Lehmann, 1967]). С помощью этого метода можно, например, имитировать и анализировать стохастические процессы, вычислять критические границы статистик (^-статистики), оценивать функцию мощности критерия и исследовать значение неодинаковых дисперсий при сравнении двух средних значений (проблема Беренса — Фишера). Этот метод быстро нашел применение в области имитационного моделирования (см. [Hading, 1958], [Shubik, 1960], [Guetzkow, 1962], [Tocher, 1963], [Chorafas, 1965], [Giloi, 1967]); моделируется абстрактная сущность исследуемой системы,, модель, но недействительность. Эксперименты на моделях особенно широко применяются при изучении систем в технике: аэродинамическая модель в аэродинамической трубе дает информацию о свойствах самолета в воздушном потоке. В противоположность физической модели абстрактная модель, реализованная в виде программы для электронной вычислительной машины, обладает существенно большей гибкостью, что облегчает, убыстряет и удешевляет экспериментирование. Двумя главными целями моделирования являются оценка работоспособности системы перед ее созданием и подтверждение оптимальности системы в смысле выбранного критерия. Задача имитационного моделирования состоит в том, чтобы получить достаточные данные и статистические оценки о динамических свойствах и работоспособности определенной системы. На основании этих результатов система и (или) модель может быть перепроверена и соответствующим образом изменена с целью итерационного отыскания оптимума. Моделирование работы фирм и предприятий, транспортных потоков и нервной системы, военных операций и международных кризисов дает информацию о поведении сложных систем в различных ситуациях. Особую ценность моделирование имеет тогда, когда точные натурные исследования слишком дороги или вообще невозможны и требуется быстрое приближенное решение. Для этой цели наряду с цифровыми вычислительными машинами используются электромеханические и электронные аналоговые вычислительные машины. Цифровыми приборами являются вычислительные устройства, на которых учатся считать наши дети, абака, в которой на проволоках перемещаются шарики (счеты), работает так же, как настольные вычислительные машины, кассовые аппараты, бухгалтерские машины и счетчики километров в вагонах. Результат считается, считывается. В противоположность этому измеритель скорости и другие физические приборы, указатель которых движется непрерывно — происходит измерение,.— представляют собой аналоговые приборы. Сюда относится также и логарифмическая линейка со своей непрерывной 8 Зак. 930 225
шкалой значений; каждому числу соответствует отрезок, длина которого пропорциональна логарифму этого числа. Перемножению двух чисел, например, соответствует сложение отрезков, соответствующих этим числам. Электронный цифровой вычислитель (digital computer) (см. [Rec- henberg, 1964], [Richards, 1966], [Sippl, 1966]) вследствие более простого конструктивного решения и большой точности счета оперирует не с десятичными цифрами @ — 9), а с двоичными, или бинарными, цифрами (binary numbers, binary digits) «нуль» и «единица» @,1), часто обозначаемыми для лучшего различения буквами 0 и L. Для записи числа 365 выполняется следующее разложение: 365 - 300 + 60 + 5 = 3 ¦ 102 + 6 • 101 + 5 • 10°. Наш способ написания позволяет опустить показатели степени у десяти, заменив их только значащими цифрами, у нас 3, 6, 5, на соответствующих местах. Если задано число 45 в двоичной форме B° = = 1, 21 = 2, 22 - 4, 23 = 8, 24 = 16, 2б = 32 и т. д.) 45 = 32 + 8 + 4 + 1 -1 . 2б + 0 • 24 + 1 • 23+1 • 22 + 0 • 21 + 1 • 2° и степени у 2 опущены, то получается следующая двоичная запись для 45: 101 101, или лучше L0LL0L. Перевод из десятичного в двоичное представление при вводе в машину и обратный перевод — при выводе, как правило, осуществляются автоматически. Важнейшим элементом цифровой электронной вычислительной машины является работающий в режиме переключателя транзистор. Он или находится под напряжением, проводит ток (соответствует L), или обесточен, без напряжения (соответствует 0). Определенное число представляется определенным сочетанием 0- и L-импульсов. Цифровая вычислительная машина незаменима, когда надо выполнить сложные вычисления с высокой (любой) точностью. Аналоговая вычислительная машина работает обычно с непрерывными электрическими сигналами (см. [Karplus, Sorogka, 1959], [Rogers, Connolly, 1960], [Winkler, 1961], [Ameling, 19631, [Fifer, 1963], [Giloi, Lauber, 1963], [Sippl, 1966]). Переменные и имеющиеся между ними соотношения преобразуются в электромеханические или электронные аналоги. Определенное число представляется пропорциональным ему напряжением. Поставленной задаче соответствует физический аналог, в котором изменяющиеся физические величины имеют те же самые математические взаимозависимости, что и величины в математической задаче; отсюда и появилось название «аналоговая вычислительная машина». Так выравнивание давления между двумя газохранилищами изучается на аналоге из двух конденсаторов, соединенных через сопротивление. Аналоговая вычислительная машина — это «живущая» математическая модель. Непосредственный вывод решения на экран дает инженеру возможность целенаправленно изменять параметры (вращать регулировочные ручки) и таким образом очень быстро находить оптимальное решение задачи. Достижимая точность зависит от 226
точности моделирования, от уровня шумов (noise) электронных элементов, от измерительных устройств, от допусков на электрические и механические элементы. Хотя отдельные элементы (усилитель) могут достигать точности максимум в четыре десятичных знака, или 99,99% (т. е. ошибка ^ 0,01%), общая ошибка, например, 100 совместно включенных усилителей, примерно та же, что и у логарифмической линейки. Основное преимущество проявляется в решении задач, требующих повторного интегрирования, т. е. решения дифференциальных уравнений. Большая скорость вычислений, быстрое изменение параметров и высокая наглядность характеризуют аналоговые вычислительные машины, которые к тому же обычно намного дешевле, чем цифровые вычислительные машины. Случайные величины с заданным статистическим распределением получаются с помощью генератора шумов. Областями применения аналоговых электронных вычислительных машин являются аппроксимация эмпирических зависимостей, т. е. отыскание математических соотношений для экспериментально найденных кривых измерений, решение алгебраических уравнений и интегрирование обыкновенных дифференциальных уравнений — анализ биологических систем регулирования, расчет, управление и контроль атомных реакторов и ускорителей, контроль клинических процессов и обычных контуров регулирования, а также имитация, например, поведения реактора и крекинг-установки при взрыве. Объединение двух ранее рассмотренных принципов — цифрового и аналогового—приводит к гибридной вычислительной машине, характерной особенностью которой является наличие преобразователей число — напряжение и напряжение—число. Гибридная вычислительная машина (аналого-цифровой комплекс) объединяет преимущества непрерывной и дискретной вычислительной техники: скорость в&чис- лений и простоту изменения программы аналоговых вычислительных машин, точность и гибкость цифровых машин. Гибридные вычислительные машины служат для решения систем дифференциальных уравнений и для оптимизации процессов: они управляют прокатными станами, транспортом, спутниками, электростанциями, а также процессами в химической промышленности, например разделением сырой нефти на фракции. При этом говорят об автоматизации процессов с помощью вычислительных машин, производящей переворот в промышленной технологии. Большие гибридные установки с аналоговой системой более чем в 100 усилителей находят особо широкое применение в авиации и космонавтике, например, для расчета траекторий ракет и спутников. Подробнее см. [Векеу, 1969], [Апке, 1970], а также [Barney, Hambury, 19701.
ГЛАВА 3. СРАВНЕНИЕ НЕЗАВИСИМЫХ ВЫБОРОК ИЗМЕРЕННЫХ ЗНАЧЕНИЙ Специальные способы выборки Если мы что-то знаем о предполагаемой неоднородности внутри генеральной совокупности, то эти знания можно эффективно использовать для производства случайных выборок. Важным является применение расслоенных, или стратифицированных, выборок; здесь генеральная совокупность разделяется на относительно однородные совокупности, слои, или страты, в зависимости от того, с какой точки зрения интересуют нас исследуемые переменные. Если речь идет о предсказании результатов выборов, то выборку производят таким образом, чтобы она представляла уменьшенную модель всего населения. При этом следует учитывать в первую очередь возрастные слои, соотношение между мужчинами и женщинами и имущественное положение. Стратификация в большинстве случаев удорожает выборку, однако ее применение весьма желательно. В противоположность этому при систематической выборке записывается каждый q-к индивидуум генеральной совокупности (выборка по группам). При этом q есть округленное целое число, получающееся при делении всего населения на объем выборки. При получении систематической выборки можно воспользоваться данными о переписи населения, списками избирателей, а также картотеками адресных бюро или органов здравоохранения. Естественно, предполагается, что в этих списках отсутствует какая-либо периодичность. Безупречный случайный выбор, конечно, возможен только тогда, когда эти карты, например картотека, тщательно перемешаны, и только после этого систематически берется каждая д-я карта. Применение систематической выборки имеет то преимущество, что зачастую легче выписать каждый q-й индивидуум, чем сделать это чисто случайным образом. Кроме того, этот метод в определенных случаях вносит некоторую непрямую стратификацию, например, когда карты упорядочены по месту жительства, профессии, доходами т. п. Способы выборки, основанные не на случайном принципе, т. е. большинство групповых выборок или особенно выбор типичных случаев, не дают оснований надеяться на надежные результаты анализа, поэтому их нужно избегать. В особенности в географических задачах используют выборки из фиксированных групп (гнездовые). Генеральная совокупность при этом делится на относительно небольшое число групп, или гнезд, ко- 228
торые могут быть изучены с относительно малыми затратами. После этого исследуется случайная выборка гнезд (семьи, школьные классы, дома, деревни, кварталы, части города). Здесь удобно применять многоступенчатый случайный выбор (например, деревни, а затем еще раз случайно — дома). Другие способы выбора 1. При пронумерованных картотеках—выбор по конечным цифрам. Если нужно, например, осуществить выборку 20% от всей совокупности, то можно отобрать все карточки с последней цифрой 3 и 7. 2. Выбор по дню рождения. При этом способе в выборку включаются люди, которые родились в определенные дни года. Если включить в выборку, скажем, всех, родившихся 11-го числа, то получим выборку примерно 12 : 365 = 0,033, или 3%. Этот способ может быть применен только тогда, когда имеются необходимые данные (листы, карточки) для достаточного числа лиц. Вопросы, связанные с объемом и точностью выборок, экономичностью способов выбора, см. в [Szameitat, с соавт., 1958,1964], а также в других рекомендованных литературных источниках (с. 367). ф 3.1. ДОВЕРИТЕЛЬНЫЙ ИНТЕРВАЛ ДЛЯ СРЕДНЕГО ЗНАЧЕНИЯ И МЕДИАНЫ Понятие «доверительный интервал» было введено. Дж. Нейманом и Е. С. Пирсоном [Neyman, 1950]. Так называют вычисленный по выборочным значениям интервал, который с заданной вероятностью, доверительной вероятностью, накрывает истинное, но не известное нам значение параметра. В качестве доверительной вероятности обычно принимают 95%; эта вероятность говорит о том, что при частых применениях данного метода вычисленный доверительный интервал примерно в 95% случаев будет накрывать параметр. ф 3.1.1. ДОВЕРИТЕЛЬНЫЙ ИНТЕРВАЛ ДЛЯ СРЕДНЕГО ЗНАЧЕНИЯ Пусть дана случайная выборка хъ х2, ..., хп из нормально распределенной генеральной совокупности. Среднее значение генеральной совокупности неизвестно. Мы ищем два рассчитанных по выборке значения хлеъ и #прав, между которыми находится с определенной, не слишком маленькой вероятностью неизвестный параметр Р: -^лев < М> < *прав- Эта границы называются доверительными границами (confidence limits), они определяют так называемый доверительный интервал (confidence interval). Искомый параметр со статистической надежностью S лежит между доверительными границами x±ts(VTi C.1) (где /п_1;а — коэффициент распределения Стьюдента, см. табл. 27, с. 130), т. е. в среднем в 100- 5% всех выборок между этими границами заключено истинное значение параметра. Р(х— /s/Vn<p,<*+/s/Vn) = S, C.1a) 229
т. е. максимум в 100 • а% всех выборок неизвестный параметр не накрывается этим интервалом. В среднем 100 A —S)% всех выборок имеют параметр вне этих границ, а именно 100 A — S)/2 = 100 а/2 всех выборок имеют параметр справа, а 100-а/2%—слева от доверительной области. Следует напомнить, что для рассматриваемого двустороннего доверительного интервала справедливо а/2 + S + а/2 = 1. Односторонний доверительный интервал (например, верхняя доверительная граница \лъ = х + tonB • s/Vri) P(r—/s/Vn< |i) = S или P(|i< 5+/s/Vn) = S C.16) в среднем в 100 • a% выборок не включает в себя значение параметра, и в среднем в 100 • S% всех случаев (а + S = 1) интервал накрывает его. Если а известна, то вместо C.1) используется выражение ^9 C,2) где г — нормированная нормально распределенная переменная (стандартная нормальная переменная); г = 1,96 (S = 95%), г = = 2,58 (S = 99%) и z = 3,29 (S = 99,9%). При большом объеме выборки можно в C.2) заменить а на s. Здесь предполагается также, что выборка взята из бесконечной генеральной совокупности или из конечной генеральной совокупности, но с возвратом. Если выборка взята из конечной генеральной совокупности объема N и после оценки не возвращается, то доверительные границы определяются следующей формулой: & C'2а) Корень 1/ дгцт называется поправкой на конечность генеральной совокупности. (У Отношение р= было введено на с. 93 как стандартное отклонение среднего значения (а-). Поэтому доверительный интервал можно записать как * ± ZGx ИЛИ ~X±tSx. C.26, 3. IB) Пример Пусть дана выборка из бесконечно большой генеральной совокупности, п = 200, х = 320, s = 20. Определите 95%-ный доверительный интервал для среднего значения. ^199; 0,06= 1,972 /•si= 1,972-1,414 = 2,79 230
317<ji<323 z • si = 1,96 • 1,414 = 2,77. Редко используемый процентный доверительный интервал рассчитывают по формулам: ±-.5-=А&1.1,414 = 0,0087^0,9%, или х 320 ¦ 1,414 = 0,0087 ~ 0,9%. х 320 95%-ный доверительный интервал: х = 320 4= 3 или х = 320 ± ±0,9%; обычно задают как «95%-ДЯ: 317<ц<323» (см. также с. 235). Удобную таблицу для определения доверительных интервалов для средних значений при оцененных или известных стандартных отклонениях дал Пайерсон A963). Примечание. Обратное заключение и прямое заключение Если на основании выборки согласно C.1) мы делаем заключение о среднем значении генеральной совокупности fat^, C.1а) то имеет место обратное, или индуктивное, заключение, так как выборка «представляет» генеральную совокупность. Наоборот, заключение о среднем выборочном значении на основании параметров генеральной совокупности ^ _^ C.3) является прямым, или дедуктивным, заключением, так как генеральная совокупность «включает в себя» выборку; например, вывод о структуре населения округа на основании полной переписи населения в стране. Если на основании одной выборки делается заключение о других выборках той же самой генеральной совокупности, то имеет место так называемое расширенное заключение. 3.1.2. ОЦЕНКА ОБЪЕМА ВЫБОРКИ Наименьшее число наблюдений для оценки стандартного отклонения и среднего значения Минимальные объемы выборки при заданной точности (d) и заданной статистической надежности, необходимые для оценки стандартного отклонения (ns) (см. также табл. 48, с. 232) и среднего значения (Пх)у определяются следующими формулами (приближения основаны на нормальном распределении!): ^J C.4) C.5) 231
zx берется из табл. 43, с. 204 (двусторонний критерий) для выбранной доверительной вероятности S = 1 — а. Для примеров мы используем z0 05 = 1,96 ~ 2 и z0 01 = 2,576 ~ ~ 2,58. Примеры Для оценки стандартного отклонения со статистической надежностью 95% (а = 0,05) при точности 20% (d = 0,2) необходимо примерно п8 = 1 + 0,5 B/0,20J = 49 наблюдений (см. также табл. 48). Для оценки среднего значения при известной дисперсии о2 = 3 со статистической надежностью 99% (а = 0,01) при точности 5% (d = 0,05) необходимо примерно п- = B,58/0,05)* • 3 « 8000 наблюдений. Для п-, теперь сокращенно будем называть п: если п больше чем 10% генеральной совокупности N (п > 0,1 • N)9 то необходимо не п, а только /г' = п1\\ + ^] наблюдений. При N = 10 000 нужно не 8000, а только 8000/(l + = 4444 наблюдений (или 4433 при zOi01 = 2,576 ип- = 7963). На других вопросах, касающихся наименьших объемов выборки, мы остановимся позднее (с. 256 — 261; см. также табл. [Hahn, 1969]). Таблица 48. Заданная точность как-функция доверительной вероятности и объема выборки 6 12 30 100 1000 0,99 0,77 0,54 0,34 0,18 0,06 0,95 0,60 0,41 0,26 0,14 0,04 0,90 0,50 0,35 0,22 0,12 0,04 0,80 0,40 0,27 0,17 0,09 0,03 Источник: Thompson W. A., Jr. and Endriss J. The required sample size when estimating variances. American Statistician, 15, June, 1961. Приближенно п можно рассчитать при заданных d и а по формуле C.4), на с. 231; например, d = 0,14, а = 0,05 (т. е. S = 0,95), п ъ « 1 + 0,5 A,96/0,14J = 99. Для оценки стандартного отклонения или дисперсии при S - 0,99 и d = 0,4 (d = 40%); S = 0,95 и d = 0,3 (d = 30%); 5 - 0,80 и d = 0,2 (d = 20%) необходима выборка, содержащая примерно 21 элемент, 232
Подробнее об определении необходимого объема выборки см. [Масе, 1964]. Наименьшее число наблюдений для сравнения двух средних значений Если ожидают, что средние значения двух независимых выборок заметно различаются — в одной и той же области измерения, — то необходимо 3 v 4 (а = 0,05) или 4 -~ 5 (а = 0,01) наблюдений. Для определения истинного значения разности б между двумя средними значениями независимых выборок с равными дисперсиями необходимо (при нормальном распределении) примерно C.6) наблюдений (т. е. пг = п2 = п) (см. также табл. 52, с. 251). Значения zo и z§ следует взять из табл. 43, с. 204 (см. на с. 112—114 ошибки 1-го и 2-го рода). При определении га нужно учитывать, какой критерий предполагается использовать—двусторонний или односторонний; Zp определяется всегда для одностороннего критерия. Для оценки объединенной дисперсии а2 необходимо воспользоваться следующей формулой: + Ъ—2 Пример 8 = 1,1; a = 0,05 (двусторонний)^ т. е. Zo,O5; двусторонний == 1,960; а2 = 3,0; р = 0,10 (односторонний), т. е, Zo, 10; односторонний ~ 1»282, « = 2A,960+ 1,282J(-А-) = 52,12. Всего нужно 53 + 53 = 106 (округленно) наблюдений. Тогда предполагается, что при двустороннем критерии на 5%-ном уровне значимости с вероятностью 90% @,9 = 1 — 0,1 = 1 — Р) вышеназванная истинная разность 1,1 будет признана значимой. 3.1.3. СРЕДНЕЕ АБСОЛЮТНОЕ ОТКЛОНЕНИЕ При малых объемах выборки в качестве меры рассеяния можно использовать среднее абсолютное отклонение (САО) от среднего значения (mean deviation from the mean), называемое также средним отклонением. Оно определяется по формуле 233
а для сгруппированных наблюдений LAU- где xt — групповое среднее; 2/j = п. Для быстрой оценки можно использовать формулу САО = — У (xi—x) = 2[I>xi-n1x]/n, C.8) х- > х пх значений х1>х. Так, для значений 1, 2, 3, 4, 5 САО = — [D—3) + E—3)]=2[D+5)—2-3]/5= 6/5= 1,2. 5 Для малых объемов выборки (и когда есть подозрение на выбросы) САО превосходит даже оптимальное стандартное отклонение (см. [Tukey, I960]): большим отклонениям от среднего значения, т. е. большим отклонениям от нормальности на выбросах выборочного распределения, оно дает меньший вес. Вместе с тем уменьшается влияние возможных выбросов (см. с. 256) и решение, оставить или отбросить экстремальное значение, уже не играет такой большой роли. Отношение САО/о для равномерного распределения равно Уз/2 = 0,86603, для треугольного распределения A6/27) ~[/2 = 0,83805, для нормального распределения ~\/2л = 0,79788 и для экспоненциального распределения — 21 е = = 0,73576. Для выборки, имеющей приближенно нормальный закон распределения, справедливо САО — 0,7979 0,4 < zy=; при этом проверяется, естест- венно, отклонение от нормального распределения. Согласно [D' Agostino, 1970] выражение (а — 0,7979) V^/0,2123, где а = = 2 (Zxi — п1хI~\/п1,х2> — B*J (критические границы даны в [Geary, 1936]) уже для малых п дает приближенно нормальное распределение (упрощенный критерий, основанный на кривизне). 95%-ный доверительный интервал для \х имеет вид х ± коэффициент . САО. C.9) Коэффициент для заданного объема выборки п следует брать из табл. 49. Равенство двух или нескольких САО может быть проверено по таблицам [Cadwell, 1953, 1954]. Пример Пусть даны восемь измерений: 8, 9, 3, 8, 18, 9, 8, 9 — при х = 9. Определите 95%-ный доверительный интервал. Вначале определим абсолютное отклонение 2\Xi-x\= (8 - 9) + (9 - 9) + C-9) + (8 - 9) + A8 - 9) + 1(9 — 9) + (8 — 9) + (9 — 9) = 1 +0 + 6+1+9 + 0+1 + 18 + 0 = 18 и среднее абсолютное отклонение по C.7) САО = -^ == = 2,25, или, по C.8), САО = 2 {18 — 1 • 9}/8 = 2,25. 234
Таблица 49. Коэффициенты для определения 95%-ных доверительных границ для среднего значения по среднему абсолютному отклонению п 2 3 4 5 6 7 8 9 10 11 Коэффициент 12,71 3,45 2,16 1,66 1,40 1,21 1,09 1,00 0,93 0,87 п 12 13 14 15 20 25 30 40 60 120 Коэффициент , 0,82 0,78 0,75 0,71 0,60 0,53 0,48 0,41 0,33 0,23 Источник: Неггеу Е. М. J. Confidence intervals based on the mean absolute deviation of a normal sample, /. Amer. Statist. Assoc. 60, 1965, 257-269, p. 267, Table 2. Коэффициенты для других доверительных границ даны в [Крючков, 1966]. Для п = 8 по табл. 49 находим коэффициент 1,09. Тогда 95%-ный доверительный интервал согласно C.9) равен: 9 ± 1,09 • 2,25 = 9 ± 2,45; 95%-ный ДИ : 6,55 < р < 11, 45. интервала Оценка 50%-ного доверительного для арифметического среднего Для повторяющихся выборок может быть определена область, которая для 50% всех выборок будет содержать искомый параметр. Этот интервал, который включает в себя средние 50% всей вероятности и вместе с тем вероятной ошибки (ВО; probable error), в нашем случае— арифметического среднего, или вероятное отклонение (probable deviation) среднего значения от истинного значения параметра, определяется (предполагается нормальное распределение) 50%-ным доверительным интервалом: Оцениваемое значение ± Вероятная ошибка оцениваемого . значения, (оЛО) например C.10а) 7) оценка может быть для не слишком малых объемов выборки (п проведена по [Peters, 1856]: х ± 0,84535 ¦ C.11) 235
Пример Мы используем данные последнего примера и получим 50%-ный 18 доверительный интервал: 9 ± 0,84535 • ^=i = 9 ± 0,72. 8.1/8—1 50%-ДИ: 8,28<у<9,72. 3.1.4. ДОВЕРИТЕЛЬНЫЙ ИНТЕРВАЛ ДЛЯ МЕДИАНЫ Для построения доверительного интервала для медианы при генеральной совокупности, распределенной не по нормальному закону, формулы C.1) и C.2) непригодны. Если упорядоченные по величине наблюдения обозначить х{1), х<2), ...уХ(п), то доверительный интервал для медианы, независимый от характера распределения, задается следующей формулой: ? C.12) Для п > 50 и доверительной вероятности 90, 95 и 99% значение h можно вычислять по формуле h = п~гУп-\ C.13) (при z= 1,64; 1,96; 2,58). Так как при п = 300 95%-ный доверительный интервал лежит между 133-ми 168-м измерениями упорядоченной по возрастанию значений выборки (h = [300 — 1,96 УЗОО — 1]/2 « 133; n — h + 1 = 300—133 + 1 = 168). Значения 95- и 99%-ных доверительных границ могут быть получены из табл. 69/69а (с. 292—293). Другие таблицы можно найти в [Mackinnon, 1964]. $ 3.2. СРАВНЕНИЕ ЭМПИРИЧЕСКОГО СРЕДНЕГО ЗНАЧЕНИЯ СО СРЕДНИМ ЗНАЧЕНИЕМ ГЕНЕРАЛЬНОЙ СОВОКУПНОСТИ Вопрос о том, отличается ли среднее выборочное значение х от заданного среднего значения (х0 за счет случайных факторов или это отличие значимо, может быть сформулирован иначе: включает в себя доверительный интервал для (л0 заданное среднее значение или нет, т. е. больше или меньше абсолютная разность | х — \i01, чем половина ширины доверительного интервала / • —Ц ? Vn Пусть выборка имеет объем п и стандартное отклонение s; тогда отличие выборочного среднего х от заданного среднего значения \i0 значимо, т. е. статистически достоверно, если [л-,! |>; « или l*-^1 .Vn>t\ C.14) у П S статистика t для числа степеней свободы п — 1 и требуемой доверительной вероятности берется из табл. 27, с. 130. 236
Предельное значение статистики, выше которой отличие значимо и ниже которой считается случайным, определяется выражением / = ' х~~**°' • У/г, число степеней свободы равно п—1. C.14а) При больших объемах выборки можно заменить / на соответствующее требуемой доверительной вероятности значение z. Так как сравниваются параметры [х0 и соответствующий выборке параметр р, то данный критерий называется параметрическим. Пример Пусть выборка объемом п = 25 имеет х = 9 и s = 2. Спрашивается, можно ли со доверительной вероятностью S = 95% считать справедливой нуль-гипотезу jul = fx0 = Ю (двусторонний критерий). Гипотеза \х = fx0 отклоняется (Р < 0,05). По-видимому, здесь целесообразно сказать несколько слов о понятии функция. Она есть указание к упорядочению: как на каждом представлении любому месту в театре соответствует определенный входной билет, так каждому элементу одного множества функция ставит в соответствие определенный элемент другого множества. В простейшем случае каждому значению независимой переменной х соответствует определенное значение зависимой переменной у: у = f (x) (говорят: у равна / от х)\ независимая переменная х называется аргументом. Так, например, для функции у = х3 аргументу х = 2 соответствует значение функции у = 23 = 8. Аргументом функции C.14а) являются значения выборки х19 х2, ..., хп и параметр fx0: и — ? (у у у ' л\ \ У I \Л1» Л2> •") лт f*0/* Для заданного аргумента (v = 24 и а = 0,05) значение функции равно /= 2,06. Значения /имеют /-распределениес v = (п—1) степенями свободы только при справедливости нуль-гипотезы (|л = fx0). Если нуль-гипотеза не верна (рф^о), то значения / уже не имеют /-распределения и больше, чем соответствующее значение /-распределения. Значения функции, оцененные на основании выборочных значений (либо по выборке и одному или нескольким параметрам) для лучшего отличия от соответствующих табличных значений (например, /, г, %2 или F-распределения), можно отмечать «крышкой (Д)»- Этот прием некоторыми авторами не используется. Согласно их способу записи, например, выражение C.14а) выглядит следующим образом: статистика -Ул C.146) I*— при справедливости нуль-гипотезы имеет /-распределение с (п — 1) степенями свободы. 237
Другая возможность: проверить нуль-гипотезу (Яо: fx = |х0 против НА: ^ ^ щ)— значит установить, находится ли х внутри так называемой области принятия гипотезы. [Хо —tn-ua- -гт=-<^<Ио+^-1;а- ^rV. C.15) Если да, то нуль-гипотеза подтверждается. За пределами области принятия гипотезы лежат верхняя и нижняя области отклонения гипотезы. Если х попадает в эти области, то нуль-гипотеза отклоняется При одностороннем критерии (Яо : [х < \i0 против НА : jx > у,0) нуль- гипотеза сохраняется до тех пор, пока для среднего значения х выборки объембм п справедливо > + 'n-i:a- -=т=-; C.15а) уп t — значение для одностороннего критерия, см. табл. 27 на с. 130. Области этого вида важны для контроля качества в промышленности, где они служат для проверки «заданных значений» (параметров), таких, как среднее значение или медиана, стандартное отклонение или размах и относительная частота (например, допустимого процента брака). Приведенная на с. 119 схема может быть теперь дополнена: модель Теория бероятностей Статистика (дедуктивная) . (индуктивная) / СТОХАСТИКИ \ Спектр возможных выборок г——J < ¦ i ' т- —г-^Н Соблюдаемая Ииж-ИЯЯ __ i НРПХМЯЯ R^,f,r,r,un Sen VoBrnn принятая-A 8Sn дтнлонения\ випотезы от клоне ни наолшиаег* выборка _ Нуль- гипотеза критерии Сносов принятия решений Исходя из нуль-гипотезы и соответствующей репрезентативной (!) выборки, т. е. выборки, представляющей некоторую генеральную совокупность с допустимыми случайными ошибками, возможно стохастическое индуктивное высказывание о генеральной совокупности, лежащей в основе данной выборки, о стохастической модели. Затем возможно дедуктивное стохастическое заключеннее помощью методов теории вероятностей на основании стохастической изменчивости определенного распределения (например t -распределения) о совокупности выборок, полученных из данной модели: наиболее редко 238
ожидаемые выборки относятся к области отклонения гипотезы — примерно 5, 1 или 0,1% крайних случаев (двусторонний критерий), чем определяются границы области принятия нуль-гипотезы (см. IWeiling, 1965]). Затем на основании статистически лучшего стохастического критерия (например, /-критерия) осуществляется проверка, попадает ли нуль-гипотеза, основанная на данной выборке, в область принятия или отклонения гипотезы. Если наблюдаемая выборка соответствует области принятия гипотезы, то нуль-гипотеза выборкой не опровергается (оправдание за недостатком доказательств с правом дальнейших исследований для подтверждения или отклонения нуль-гипотезы). Если выборка соответствует области отклонения гипотезы, то это событие возможно при справедливости нуль-гипотезы, но очень мало вероятно. В этом случае считают более вероятным, что значение параметра не соответствует нуль-гипотезе: нуль-гипотеза на принятом уровне значимости отклоняется! Доверительные интервалы и критерии, которые относятся к о>, a2 (%2-распределение) и fff/tfi (^-распределение), более чувствительны к отклонениям от нормального распределения, чем доверительные интервалы и критерии для у и цх — jj2 (/-распределение). • 3.3. СРАВНЕНИЕ ЭМПИРИЧЕСКОЙ ДИСПЕРСИИ С ГЕНЕРАЛЬНОЙ Для нормально распределенной генеральной совокупности справедо: нуль-гиротеза в 2 l случай 1: \х неизвестно ливо: нуль-гиротеза в = о0 или а2 = al отклоняется, когда: й 1 случай 2 : у> известно = 4 Значение s§ — см. A.33) —может быть рассчитано C.23) как So = Q/n. Если имеется большая выборка из нормально распределенной генеральной совокупности, то справедливо следующее утверждение: нуль-гипотеза а = а0 на 5%-ном уровне отклоняется, если |s~ao1 У2п>1,96. C.166) Для 1%-ного уровня 1,96 нужно заменить на 2,58. Пример Следующие 8 наблюдений относятся к нормальному распределению (со средним значением у0 = 50) : 40, 60, 60, 70, 50, 40, 50, 30. Проверьте 239
справедливость равенства а§ = 60 (а = 0,05). На основании имеющейся выборки можно нуль-гипотезу g2=Gq на 5%-ном уровне считать неподтвержденной. 3.4. ДОВЕРИТЕЛЬНЫЙ ИНТЕРВАЛ ДЛЯ ДИСПЕРСИИ И КОЭФФИЦИЕНТА ВАРИАЦИИ Доверительный интервал для а2 может быть построен на основании ^-распределения 2 ^ „ ^ 77г л— 1; а/2 ХЛ—1;1 —а/2 Например, 95%-ный доверительный интервал (а = 0,05) для п = 51 и s2 = 2 равен 2-50 а ^ 2-50 71,42 32,36 1,40<о2<3,09, Хб0;0,02Б= 71,42ИХ5О;О,976 = 32,36. Оценку для а2 получаем по формуле s2(/i—1) 2-50 95%-ный доверительны йинтервал для а Иногда бывает необходим доверительный интервал для стандартного отклонения: |/1,40< а< 1/3,09; 1,18< а < 1,76. Так как %2-рж> пределение несимметрично, оцениваемый параметр лежит не в середине доверительного интервала. Доверительные границы для коэффициента вариации могут быть определены по [Johnson, Welch, 1940]. Для V< 350% и п> 12 степень приближения вполне достаточна: с вероятностью S доверительный интервал находится между значениями (см. также [Iglewicz, 1968]): верхняя граница __^==V; C.18) нижняя граница _,, V, где Стандартная нормальная переменная z в соответствии с желаемой доверительной вероятностью и дву-или, чаще, односторонним критери- 240
ем, так как часто требуется только верхняя доверительная граница, определяется по табл. 43. Пример Дано V = 20% (т. е. V = 0,2), п — 19. Найти верхнюю доверительную границу Ve для S = 95%. При г = 1,64 и k = 1,64/ /2A9—1) = 0,273 получаем значение Vb, равное Ь 1- 0,2731/1 + 2-0,2* Итак, для коэффициента вариации справедливо: в случае нормально распределенной генеральной совокупности с параметром у = 20% и выборки объемом п = 19 с вероятностью S = 95%можно считать, что статистика У будет меньше соответствующего верхнего предела У 279% # 3.5. СРАВНЕНИЕ ДВУХ ВЫБОРОЧНЫХ ДИСПЕРСИЙ ИЗ НОРМАЛЬНЫХ СОВОКУПНОСТЕЙ Если необходимо определить, относятся ли две независимые случайные выборки к одной и той же генеральной совокупности, то в первую очередь нужно провести проверку на равенство (однородность) их дисперсий (большую выборочную дисперсию обозначим sf). Нуль- гипотеза (Яо) af = сг| отклоняется, если рассчитанное по выборочным дисперсиям значение F = -\ больше, чем соответствующее табличное значение F; в этом случае принимается альтернативная гипотеза (На) erf Ф оI (двусторонний критерий). Если в качестве альтернативной гипотезы принять, что одна из двух генеральных совокупностей имеет дисперсию большую, чем другая, тогда можно выборку с большей, согласно Я^, дисперсией обозначить № 1 (sf), а другую — № 2 (s^). Если F> F, то при одностороннем критерии принимается гипотеза На'&\ > ст|. 1. При малом и среднем объемах выборки Мы образуем отношение двух дисперсий sf и si и получаем статистику р = fi с числом степеней свободы vx = пг — 1; C.19) s\ с числом степеней свободы v2 = п2 — 1. Если рассчитанное значение F при требуемой доверительной вероятности (или соответствующей вероятности ошибки) равно или превосходит табличное F-значение для степеней свободы vx = пг — 1 и v2 = п2— 1, то гипотеза об однородности дисперсий отбрасывается (см. с. 239). При F < F нет оснований для отклонения этой гипотезы. Если нуль-гипотеза отбрасывается, то рассчитывают доверительный интервал (ДИ) для о\/о\ по формуле fi4<-?h-/rvtlv1, v^^-Uv^n.-l. C.19a) 4ht 241
Для 90^-ногоДЯ используют табл. 306 (с. 140—141), для 95%-ного ДИ—табл. ЗОв (с. 142—143). Таблицы нас. 138—149 содержат верхние границы значимости F-распределения для дисперсионного анализа при одностороннем критерии. Как правило, нас интересуют отклонения в обе стороны и мы применяем двусторонний критерий. Если мы проверяем гипотезу на 10% -ном уровне значимости, то необходимо использовать таблицу для5%-ных границ и соответственно для двустороннего критерия на 2%-ном уровне — 1%-ной границы. Пример Проверьте Но af = о\ против НаО\ Ф oj на 10%-ном уровне значимости Дано: /i! = 21; s? = 25; ? = Л^,^ л, = 31; s| = 16; 16 Так как F — 1,56 < 1,93 = [^20; 30; 0,10 (двух) = ^ 20; 30; 0,05 (одн.)Ь то Яо на 10%-ном уровне не отклоняется. Для выборок одинакового объема п можно также проверять Но с помощью соотношения (см. табл. 27, с. 130; [Cacoullos, 1965]). Упрощенный критерий изложен на с. 253. Пример Проверьте Но а\ = а\ против На о? Ф о| на 10%-ном уровне. Дано: Пх — пг = п = 20; s\ = 8; s| = 3; F= — = 2,67 > 2,12; / = 20~1' (8~3) = 2,22 > 1,729. 3 2*8'3 Так как Но на 10%-ном уровне отклоняется, то построим 90%-ный ДИ C.19а): Ли.и»:о.ов (ода.) =2,17; 4^=1.23; 2,67.2,17 = 5,79; 90%-ный ДИ: 1,23<af/cj<5,79. Непараметрические методы, заменяющие F- критерий Так как результат проверки с помощью F-критерия может сильно зависеть даже от небольших отклонений от нормального распределения, в [Cochran, 1947], [Box, 1953], [Box, Anderson, 1955], [Levene, 1960] предложен приближенный непараметрический метод: для сравниваемых рядов измерений образуют абсолютные значения (\xt — х\) и к ним применяют критерий суммы рангов; при двух выборках (/-критерий (обратите внимание на с. 264—2661) и при большем числе выборок — 242
Таблица 50. Число наблюдений, которое необходимо для сравнения двух дисперсий с помощью /^-критерия. Если получают значение, например, для а= =0,05, р = 0,01 и числ = F=4. то это означает, что оценки дисперсий обеих выборок должны быть основаны по меньшей мере на 35 степенях свободы (для 30 и 40 степеней свободы F-значения соответственно равны 4,392 и 3,579) Число стспрнёй свободы 1 2 3 4 5 6 7 8 9 10 12 13 20 24 30 40 60 120 оо C =0,01 654200 1881 273,3 102,1 55,39 36,27 26,48 20,73 17,07 14,44 11,16 8,466 6,240 5,275 4,392 3,579 2,817 2,072 1,000 а = р = 0,05 26070 361,0 86,06 40,81 25,51 18,35 14,34 11,82 1 10,11 8,870 7,218 5,777 4,512 3,935 3,389 2,866 2,354 1,828 1,000 0,05 0 = 0,1 6436 171,0 50,01 26,24 17,44 13,09 10,55 8,902 7,757 6,917 5,769 4,740 3,810 3.376 2,957 2,549 2,141 1,710 1,000 0 = 0,5 161,5 19,00 9,277 6,388 5,050 4,284 3,787 3,438 3,179 2,978 2,687 2,404 2,124 1,984 1,841 1,693 1,534 1,352 1,000 Источник: Davies О. L. The Design and Analysis of Industrial Experiments, Oliver and Boyd, London, 1956, p. 614, Table H. Я-критерий Краскела и Валлиса, если можно ряды из абсолютных от клонений (xt—х) рассматривать как выборки из распределений с равными средними значениями. Однородность нескольких (k) дисперсий по [Levene, 1960] может быть проверена также с помощью простого дисперсионного анализа, когда для п абсолютных отклонений наблюдений от их средних значений выполняется F > Fk-x-, n-k; а (см. также с. 450). Подробнее об альтернативной к ^-критерию' процедуре см. [Shorack, 1969]. Минимальный объем выборки для F-критерия Для любого статистического критерия необходимо учитывать, как мы знаем, два вида риска. Частный пример дает табл. 50 (выше). Более подробные таблицы см. в [Davies, 1956] и [Tiku, 1967]. Минимальные объемы выборок из (независимых) нормально распределенных генеральных совокупностей для сравнения двух эмпирических дисперсий можно определить также с помощью номограмм Рейтера [Reiter, 1956] или по таблицам [Graybill, Connell, 1963]. 243
2. При средних и больших объемах выборки Для нетабулированных F-значений (при среднем числе степеней свободы можно использовать интерполяцию) при большем числе степеней свободы однородность двух дисперсий может быть проверена с помощью выражения JLlnf+_L(J_M 2 2 \ vi v2 / которое распределено по приближенно нормальному закону. Если под рукой нет таблиц натуральных логарифмов, то с помощью соотношения g In F — •? • 2,3026 lg F получаем z= 2 {vi vJ-. C.21) 2 U+v2 где! сравнивается с нормальным распределением. Пример Проверим эту формулу на табл. 30. При vx — v2 = 60 и вероятности ошибки а = 0,05 из таблицы получаем значение F = 1,53. Предположим теперь, что это F-значение мы получили экспериментально для Vl = v2 = 60, а наша таблица содержит значения только до vx = v2 = = 40. Значимо ли найденное F-значение при одностороннем критерии (erf = о% против erf > а\) при 5%-ном уровне? Для F = 1,53, vx = 60 и v2 = 60 имеем 1,151293.0,189691 Z — ' v Г i / i . i \ °'1290995 -4-= 2 V 60 60 т. e. z = 1,64705 > 1,6449; соответствующее вероятности ошибки p = 0,05. Значение z = 1,6449 (см. табл. 43, с. 204) превышено, поэтому необходимо гипотезу об однородности дисперсий на 5%-ном уровне отклонить. Аппроксимация нормальным распределением выполнена. 3. При больших и очень больших объемах выборки (nx, n2 ^ 100) Мы вычисляем выражение с2 с2 sl , St>. ~Z "Г 2/г2 244
Если вычисленное значение статистики z превосходит теоретическое z-значение, указанное на с. 204 для различных значений достоверности или равно ему, то стандартные отклонения sx и s2 или дисперсии sf и s\ различаются значимо, т. е. они неоднородные; в противном случае они считаются однородными. Пример Пусть дано: sx = 12,1; пг = 3000; п2 = 4000; s2 = 11,7. Нуль-гипотеза о\ = а|. Альтернативная гипотеза erf Ф о\ (а = 0,05). z= 12,1-11,7 = 1,964; 12,12 , И,72 V 2-3000 2-4000 z= 1,964 >50|0В = 1,960. Так как граница значимости превышена, то с вероятностью 5 = 95% нуль-гипотеза об однородности стандартных отклонений должна быть отклонена. Надежность нашего заключения обоснована в первую очередь для выборок о?ень большого объема. ® 3.6. СРАВНЕНИЕ ДВУХ ВЫБОРОЧНЫХ СРЕДНИХ ИЗ НОРМАЛЬНЫХ СОВОКУПНОСТЕЙ 1. При неизвестных, но равных дисперсиях Сумму квадратов отклонений S (х — хJ обозначим через Q. Она рассчитывается по формулам Q = S х2 — BхJ/п C.23) или Q = (п — 1) s2. C.24) Для сравнения двух средних значений при неравных объемах выборок (дх Ф п2) получаем статистику I А Г I Qx+Q2 J C.25, 3.26) 1 / Г П1~\~п2 \ Г (^1 — 1) Sl Ч" (Л2 1) S2 1 V I ttin2 J I ni+n2—2 J с (пх + п2 — 2) степенями свободы. Проверяется нуль-гипотеза |^i = |i2 ° равенстве средних значений генеральных совокупностей, лежащих в основе обеих выборок, при неизвестных, но равных дисперсиях (см. с. 129 и 241 — 245). 245
Для случая равных объемов выборок (п = пг = п2) t-статистика для независимых выборок упрощается: ^ f Ql + Q2 I /" /g с числом степеней свободы, равным 2п — 2. Если статистика равна границе значимости или превосходит ее, то справедливо |хх Ф fx2- Если статистика меньше границы, то нуль-гипотеза fAi^M^ не отклоняется. Для п±= /22^20 молшо критерий Лорда (Lord-test с. 254) заменить /-критерием. Сравнение средних значений рассмотрено на с. 255—-256 и в гл. 7. Пример Проверьте Яо р* = ц2 против HA\^i ф ^2 на 5%-ном уровне. Пусть даны: пг = 16; ?i = 14,5; s\ = 4; п2 = 14; х2 = 13,0; sj = 3. Qx = A6 — 1) . 4 = 60; Qa = A4 — 1) • 3 = 39. Подставляем эти значения в C.25): / 14,5-13,0 = 1 // 16+14 \ / 60 + 39 \ V { 16-14 ) ' \ 16+14—2 / Для числа степеней свободы, равного пг + п2 — 2 = 28, имеем /ОвОВ = 2,048. Так как? = 2,180 > 2,048, нуль-гипотеза об однородности средних значений на заданном уровне значимости отклоняется и принимается альтернативная гипотеза (Р < 0,05). Важное указание А. Доверительный интервал для разности двух средних значений независимых выборок из нормально распределенных генеральных совокупностей с одинаковыми дисперсиями определяется следующим выражением (например, для S = 0,95 при 'ст.св;о,о25 (одн.)): Я1+я,2: a/2 C.28) л f gS(ni—l) + sl(na —1) _ -I / QT+Q2 ГД К «x+zza —2 V ni+n2—2 Если а известно, то t заменяется стандартной нормальной переменной z. Если объемы выборок равны (/гх = п2), то sy \/п1-\- \/п2 заменяется "l/(si + s!)/fl. Разница между [лх и [х2 на заданном уровне значима, если доверительный интервал не содержит значение fxi — jx2 = 0. 246
faблицa 51. Тригонометрическое преобразование: значения *=«arcsin ¦/"/> (например, arcsin /0,25 =30,0, arcsin /,00 =90); (х — в градусах) ; для пересчета в радианы необходимо табличные значения разделить на 57,2958 0,00 0,01 0,02 0,03 0,04 0,05 0,06 0,07 0,08 0,09 0,0 0,1 0,2 0,3 0,4 0,5 0,6 0,7 0,8 0,9 0,000 18,435 26,565 27 33,211 39,231 45,000 45 50,769 51 56,789 57 63,435 64 71,565 72 5,739 19,370 ,275 33,833 39,815 45,573 ,354 ,417 ,158 ,543 8,130 20,268 27,972 34,450 40,397 46,146 51,943 58,052 64,896 73,570 9,974 21,134 28,568 35,062 40,976 46,720 52,535 58,694 65,650 74,658 11,537 21,973 29,334 35,669 41,554 47,294 53,130 59,343 66,422 75,821 12,921 22.786 30,000 36,271 42,130 47,870 53,729 60,000 67,214 77,079 14,179 23,578 30,657 36,870 42,706 48,446 54,333 60,666 68,027 78,463 15,342 24,350 31,306 37,465 43,280 49,024 54,938 61,342 68,866 80,026 16,430 25,104 31,948 38,057 43,854 49,603 55,550 62,028 69,732 81,870 17,457 25,842 32,583 38,646 44,427 50,185 56,167 62,725 70,630 84,261 Статистические критерии и доверительные интервалы приводят к одному и тому же решению. Доверительный интервал, кроме того, содержит дополнительную информацию о параметреХ Пример Используем данные последнего примера для построения 95%-ного доверительного интервала. (xi-^)i^l + /22^2;a/2-s Vl/nt+ 1/л2-A4,5-13,0) ±2,05-1,88 X X 1/1/16+1/14 = 1,5±1,4, т. е. 95%-ныйДЯ: 0,1 < fxi-^i2 <2,9. Нуль-гипотеза (\ii — \i2 = 0) на основании предложенной выборки на 5%-ном уровне должна быть отвергнута. Б. Удобно сравнивать средние значения двух независимых выборок с одинаковой дисперсией для случая пх ф п2 с помощью следующего выражения: —2) (п2 Ъхх— (пг+п2) C.29) vi=l; v2 = —2, а в случае пг = п2 = п C.30) vi=l; v2 = 2rt—2. Сравнение этого метода, основанного на соотношении t*=Fv _ v со i v стандартным методом показывает, что последние формулы экономичнее в вычислениях примерно на 30%. Это подтвердят небольшие упражнения, которые читатель может придумать сам. В. Средние значения относительных частот х^щ — pi нельзя сравнивать с помощью способов, рассмотренных в данном разделе C.23 — 3.30). Когда все относительные частоты лежат между 0,30 и 0,70, приближенное сравнение может быть произведено с помощью формул, приведенных в следующем разделе C.31 — 3.35), причем лучше предварительно эти частоты нормализовать. 247
Часто применяет также тригонометрическое преобразование (arcsin-npe- образование, обратное sin-преобразованию), arcsin "J/p» или sin "l/p, означает угол или длину дуги, синус которой равен ~|/р. При больших п значения arcsin V? распределены по нормальному закону. Дисперсия arcsin ~]/~p не зависит от я и зависит только от объема рыборки п. Относительные частоты xtlnt — pi (при щ ^ const и n{pi > 0,7, а также щ A — pi) > 0,7) от 0 до 1 преобразуются в углы от 0 до 90° (см. табл. 51 на с. 247): Относительные частоты 0,00 0,25 0,50 0,75 1,00 Градусы 0 30 45 60 90 Например, имеются два ряда наблюдений, некоторые группы из п индивидуумов. В каждой группе часть pi индивидуумов имеет определенный признак. Если теперь необходимо сравнить процентное распределение двух рядов, то значения pt, округленные до двух десятичных знаков, нужно преобразовать с помощью таблицы в значения *,-, которые затем после вычисления средних значений и дисперсий можно сравнивать по формулам C.23 — 3.35). Величины, распределенные по биномиальному закону, могут быть нормализованы с помощью логит- или пробит-преобразования. Подробнее об этом см. [Fisher, Yates, 1963], где имеются также подробные таблицы тригонометрических преобразований. 2. При неизвестных и неравных дисперсиях Проверяется нуль-гипотеза \ix = |х2 о равенстве средних значений генеральных совокупностей, лежащих в основе обеих выборок, при условии, что дисперсии не равны (сг? Ф oj). Это так называемая проблема Фишера — Беренса (см. [Вгепу, 1955], [Linnik, 1966], [Mehta, 1970] и [Scheffe, 1970], для которой точного решения не существует. Для практических целей пригодна статистика [Welch, 19371 ?= l*i-**l C.31) /-2 C2 ПРИ «1 / \ «2 где v — число степеней свободы, округленное до целого числа, лежит между меньшим из vx и v2 и их суммой (vx + v2), однако оно всегда меньше, чем (nL + пг — 2). При очень больших объемах выборок можно применять соотношение v — пх + п2. Формула C.32) аппроксимирует выражение, предложенное в .[Welch, 1947]. Другие возможности решения проблемы сравнения двух выборок *были указаны в [Trickett, Welch, James, 1956]; ими составлена таб- .лица. 248
Другое интересное решение предложено в [Banerji, 1960]. В случае равных объемов выборок {пх = п2 = п) возможны следующие упрощения: /^ /; ь(п-\) или v = n—1+ 2^=2—=л—1 Н ^^ , C.34) Q2 Qi sj ^ si где v — число степеней свободы. При очень больших объемах выборок можно заменить 1 на z. Требуемое значение z или / можно взять из табл. 14 на с. 68 или табл. 43, с. 204. Для сравнения нескольких средних значений при неравных дисперсиях существуют приближенные способы (см. [Sachs, 1970]). Пример __ _ Дано: пх = 2000; \ = 18; sx = 34; п2 = 1000; х2 = 12; s2 = 73. Требуемая доверительная вероятность при одностороннем критерии S = 99%. Поскольку объемы выборок велики, мы можем использовать стандартную переменную z вместо переменной t распределения Стьюдента: = 20,0>2,33=г0H1(одн.). 34 2000 Нуль-гипотеза об однородности средних значений отклонения (Р < 0,01). Выборки малого объема (п1у п2 < 9) с неоднородными дисперсиями могут быть изящно проверены на равенство средних значений по критерию Мак Каллоха [McCullogh и др., 1960]. Другие возможности предоставляют таблицы [Fisher, Yates, 1963]. Другой путь решения проблемы Беренса — Фишера предложен в [Weir, 1960]. Для нас интересно, что разница средних значений на 5%-ном уровне значима, ,?сли при объемах выборок пг ^ 3 и п2 ^ 3 выполняется соотношение: л/ >2,0; C.35) или 2,0. 1 1 -I —4 [ х г \ 249
Таблица. Сравнение двух средних значений независимых выборок из приближенно нормально распределенных генеральных совокупностей Объемы выборок Дисперсии равны: 02«*а неравны: равны: Y^ v = zn —; v=n-l+ n 2n — 2 _? неравны: 1 1*1 — *1 — JL n2 — 2 n2 — 2 / 4 \2 D П2+1 Примечание, v—число степеней свободы; границы для ^-критериясм. с. 130. Если отношение не превышает значение 2, то оснований для отклонения нуль-гипотезы \хг = \х2 на 5%-ном уровне нет. Доверительные интервалы для отношения двух средних значений независимых выборок из нормально распределенных генеральных совокупностей с равными или неравными дисперсиями см. в [Bliss, 1967]. Пример Сравните два средних значения на 5%-ном уровне: пг = 3; 1,0; 5,0; 9, 0; \ = 5,0; Qx = 32; s\ = 16; п2 = 3; 10,9; 11,0; 11,1; х2 = 11,0; Q2 = 0,02; s| = 0,01. Значение Q здесь может быть быстро рассчитано по формуле Q = 2 (х — хJ 15,0—11,01 /¦ 32—0,02 / _1_ J_\ 3+3—4 ' \~+ 3 /' 3,27 ¦<2,0. 250
Для данных выборок разница на 5%-ном уровне незйачима. Стандартные способы C.33, 3.34) ? |5,0-11,0| 6 ^ 32 + 0,02 3C-1) 2,31 2-3—2 32 0,02 0,02 ' 32 приводят к тому же результату. Три замечания к сравнению средних значений 1. Выборки, которые получены не чисто случайным способом, характеризуются большим сходством элементов внутри выборки и меньшим сходством выборочных средних значений. При неслучайных спо- всобах выборки стандартные отклонения уменьшаются, а разница средних значениях увеличивается. Таблица 52. Таблица указывает приближенный объем выборки п при одностороннем критерии дли одной и двух выборок, который необходим, чтобы при вероятности ошибки а и мощности критерия A—р) указать разницу как значимую, если параметр в генеральной совокупности имеет отклонение <2=(fi—\Xo)/g или когда два средних значения генеральных совокупностей с одинаковым стандартным отклонением а отличаются на d=*(|ii—м-2)/<г. При двустороннем критерии вероятность ошибки следует удвоить. При сравнении двух выборок предполагается, что их объемы одинаковы и равны Я1=/г2=м. а 0,005 0#025 \ d N. 0,1 0,2 04 0,7 1,0 2,0 0,1 0,2 0,4 0,7 1,0 2i0 Одна выборка 0,2 0,8 1173 296 77 28 14 7 788 201 52 19 10 — 0,05 0,95 1785 450 115 40 22 8 1302 327 85 29 16 6 0,01 0,99 2403 605 154 53 28 10 1840 459 117 40 21 7 0,20 0,80 2337 588 150 50 26 8 1574 395 100 34 17 6 Две выборк? 0,05 0,95 3567 894 226 75 38 11 2603 650 164 55 28 8 i 0,01 0,99 4806 1206 304 100 49 14 3680 922 231 76 38 11 Источник: Dixon W. J., Masse у F. J. Introduction to Statistical Analysis, New Vork, 1957, Table A—12c., p. 425, Copyright McGraw-Hill Book Company, 21, Aprill, 1966. 251
Применение табл. 52 поясняется примерами в табл. 52а (см. также C.6) на с. 233). Таблица 52а Критерий Для одной выборки Для двух выборок Односторонний или двусторонний односторонний двусторонний односторонний двусторонний а 0,005 0,01 0,025 0,05 Э 0,2 0,01 0,05 0,05 0,7 1,0 1,0 0,1 Объем П = п - пх = 28; пг = 2603; выборки = 28 = 28 Я2 = п2 = = 28 = 2603 2. Сравнение двух параметров возможно на основании их доверительных интервалов: 1) если доверительные интервалы перекрываются частично, то из этого не следует, что параметры различаются незначимо; 2) если доверительные интервалы не перекрываются, между параметрами имеется значимая разница. 3. Число выборочных значений, которые необходимо иметь для сравнения выборочного среднего с параметром генеральной совокупности или для сравнения двух выборочных средних, можно найти по табл. 52 для заданных значений ошибок 1-го рода (а = 0,005 и 0,025 или а = = 0,01 и 0,05) и 2-го рода (Р = 0,2; 0,05; 0,01) и для известных отклонений. Примечания 1. Другие способы изложены в [Croarkin, 1962], [Winne, 1963], [Owen, 1965, 1968], [Hodges, Lehmann, 1969], [Krishnan, 1968], [Cohen, 1969] и [Kuhl- meyer, 1970]. 2. Номографическое представление /-критерия [Thoni, 1963], [Diette, 1967], а также другие статистические критерии можно найти в [Wenger, 1963], [Stam- mberger, 1966/67] и [Boyd, 1969]. 3. Сравнение двух коэффициентов вариации. Стандартная ошибка коэффи- V if, . 2V2 v циента вариации определяется выражением sv — /-—- ¦ I/ 1 + —^ ш "i/o""" * Разность двух коэффициентов вариации при не слишком малых объемах выборок (%» я2 > 30) может быть приближенно проверена с помощью статистики C.36) распределенной по нормальному закону. Например, для Vx = 10%, V2 = 13% и пг = п2 = 30 получаем z = | 10 — 13 |/Vl02/60+132/60 =1,414. Так как 1,414 < 1,96 = z0H5, то нет оснований отвергать равенство параметров, лежащих в основе обоих коэффициентов вариации. 252
3.7. УПРОЩЕННЫЕ КРИТЕРИИ, ПРЕДПОЛАГАЮЩИЕ ПРИБЛИЖЕННО НОРМАЛЬНОЕ РАСПРЕДЕЛЕНИЕ 3.7.1. СРАВНЕНИЕ РАССЕЯНИЙ ДВУХ МАЛЫХ ВЫБОРОК ПО ПИЛЛАИ (PILLAI) И БУЭНАВЕНТУРЕ (BUENAVENTURA) Рассеяния двух независимых рядов измерений могут быть сравнены с помощью размаха (Rly R2). Для этой цели образуют аналогично F-критерию отношение RJR2 ПРИ Ri > ^2 и проверяют, достигает ли отношение Rx/R2 соответствующей границы в табл. 53. Когда, например, ряд измерений А с пх = 9 и ряд измерений В с п2 = 10 имеют размах R1=l9uR2 = 10, тогда Rt/R2 = 1,9 больше, чем табличное значение 1,82 для а = 5%, поэтому нуль-гипотеза отклоняется. Таблица 53. Верхние границы значимости F-распределения, основанного на размахах (сверху а=0,05, внизу а = 0,01) п2 ^\ 2 3 4 5 6 7 8 9 10 2 3 4 5 6 7 8 9 10 2 Л2,71 3,19 2,03 1,60 1,38 1,24 ,15 ,09 ,05 63,66 7,37 3,73 2,66 2,17 1,89 1,70 1,57 1,47 3 19,08 4,37 2,66 2,05 1,74 1,57 1,43 1,33 1,26 95,49 10,00 4,79 3,33 2,66 2,29 2,05 1,89 1,07 4 23,2 5,13 3,08 2,35 1,99 1,77 1,61 1,49 1,42 116,1 11,64 5,50 3,75 2,98 2,57 2,27 2,07 1,92 5 26,2 5,72 3,38 2,57 2,17 1,92 1,75 1,62 1,54 131 12,97 6,01 4,09 3,23 2,75 2,44 2,22 2,06 6 28,6 6,16 3,62 2,75 2,31 2,04 1,86 1,72 1,63 143 13,96 6,44 4,36 3,42 2,90 2,55 2,32 2,16 7 30,5 6,53 3,84 2,89 2,42 2,13 1,94 1,79 1,69 153 14,79 6,80 4,57 3,58 3,03 2,67 2,43 2,26 8 32,1 6,85 4,00 3,00 2,52 2,21 2,01 1,86 1,76 161 15,52 7,09 4,73 3,71 3,13 2,76 2,50 2,33 9 33,5 7,12 4,14 з,и 2,61 2,28 2,08 1,92 1,82 168 16,13 7,31 4,89 3,81 3,24 2,84 2,56 2,38 10 34,7 7,33 4,26 3,19 2,69 2,34 2,13 1,96 1,85 174 16,60 7,51 5,00 3,88 3,33 2,91 2,63 2,44 Источник: Pullai К. С. S., Buenaventura A. R. Upper percentage points of a substitute F-ratio using ranges, Biometrika, 48, 1961, 195, 196. Границы в табл. 53 рассчитаны для одностороннего критерия. Если проверяется гипотеза о\ = о\ против а? Ф а|, то 5- и 1 %-ные границы этой таблицы нужно рассматривать как 10- и 2%-ные уровни двустороннего критерия. Критерий достаточно эффективен также и при малых выборках. 253
3.7.2. СРАВНЕНИЕ СРЕДНИХ ЗНАЧЕНИИ ДВУХ МАЛЫХ ВЫБОРбК ПО ЛОРДУ (LORD) Для сравнения центров независимых рядов измерений равного объема (/гх = п2 ^ 20) вычисляют разность между средними и делят ее на среднее арифметическое размаха (Rly R2): и = C.37) Если статистика й, аналогичная /-статистике, достигает или превосходит границу табл. 54, то разность средних значений на соответствующем уровне значима [Lord, 1947]. Критерий предполагает нормальность распределения и равенство дисперсий в табулированной области, он имеет такую же мощность, как и /-критерий. Пример Если нужно сравнить ряды измерений Л: 2, 4, 1, 5 и Б: 7, 3, 4, 6, то при R1 = 5 — 1 =4, #2 = 7 — 3 = 4 получаем C-5) и = D+4)/2 = 0,5, что при пг = ла = 4 и двустороннем критерии на 5%-ном уровне не дает оснований для отклонения #0. Обе выборки взяты из общей ге- Таблица 54. Границы для сравнения двух средних значений независимых рядов измерений равного объема по Лорду 3 4 5 6 7 8 9 10 И 12 13 14 15 16 17 18 19 20 Односторонний *0,05 0,974 0,644 0,493 0,405 0,347 0,306 0,275 0,250 0,233 0,214 0,201 0,189 0,179 0,170 0,162 0,155 0,149 0,143 критерий ,01 1,715 1,047 0,772 0,621 0,585 0,459 0,409 0,371 0,340 0,315 0,294 0,276 0,261 0,247 0,230 0,225 0,216 0,207 Двусторонний «0,05 1,272 0,831 0,613 0,499 0,426 0,373 0,334 0,304 0,280 0,260 0,243 0,228 0,216 0,205 0,195 0,187 0,179 0,172 критерий «0,01 2,093 1,237 0,896 0,714 0,600 0,521 0,464 0,419 0,384 0,355 0,331 0,311 0,293 0,278 0,264 0,252 0,242 0,232 Источник: Lord E. The use of the range in place of the standard deviation in the Mest, Biometrika, 34, 1947, 41—67, Table 10. 254
Таблица 55. Границы значимости для проверки экстремальных значений при одностороннем критерии. Предварительно необходимо установить, какой конец упорядоченного ряда средних значений (или отдельных значений, см. с. 256) проверяется. При двустороннем критерии уровень значимости удваивается п 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 <х=0,10 0,886 0,679 0,557 0,482 0,434 0,479 0,441 0,409 0,517 0,490 0,467 0,492 0,472 0,454 0,438 0,424 0,412 0,401 0,391 0,382 0,374 0,367 0,360 а=0,05 0,941 0,765 0,642 0,560 0,507 0,554 0,512 0,477 0,576 0,546 0,521 0,546 0,525 0,507 0,490 0,475 0,462 0,450 0,440 0,430 0,421 0,413 0,406 а=0,01 0,988 0,889 0,780 0,698 0,637 0,683 0,635 0,597 0,679 0,642 0,615 0,641 0,616 0,595 0,577 0,561 0,547 0,535 0,524 0,514 0,505 0,497 0,489 Статистика Х1 — Х2 Х1 —хп хг — х2 Х1 — хп-1 *i— *з Х1 — хп-1 Х1 Х3 Х1 — хп-ъ Источник: Dixon W. J. Processing data for outliers, Biometrics 9, 1953,74-89, App. p. 89. неральной совокупности со средним значением \i. Мур составил таблицы [Moore, 1957] для этого критерия для неодинаковых объемов при ^i + ^2^ 39; другие таблицы дают возможность оценить стандартное отклонение, общее для обеих выборок. 3.7.3. СРАВНЕНИЕ СРЕДНИХ ЗНАЧЕНИЙ НЕСКОЛЬКИХ ВЫБОРОК РАВНОГО ОБЪЕМА ПО ДИКСОНУ (DIXON) Для того чтобы установить, значимо ли отличие среднего значения ряда измерений хх от (п — 1) средних значений других рядов измерений, необходимо упорядочить эти значения по величине: возрастание — хг < х2 < ... < хПУ если интересующее среднее значение отклоняется в меньшую сторону, и убывание — хг*>х2 > ... > хп, если оно от- 255
клоняется в большую сторону. В обоих случаях хг соответствует экстремальному среднему значению. Затем вычисляется статистика М = C.38) которая затем сравнивается с границами значимости по табл. 55 [Dixon, 1951, 1953]. _Если даны_четыре средних_значения: 157, 326, 177 и 176 ихг = 326, то х2 = 177, х3 = 176, л:4 = хп = 157 и Ш~т =0,882. 326—157 Значение статистики превосходит значение 0,765 E%-ная граница для л = 4); нуль-гипотеза, согласно которой эти четыре средних значения получены из общей приближенно нормально распределенной генеральной совокупности, должна быть отклонена (табл. 55 содержит также статистики для 8 ^ п ^ 25). По отношению к отклонениям от нормальности этот критерий относительно мало чувствителен, так как согласно центральной предельной теореме средние значения рядов измерений, распределенных не по нормальному закону, распределены приближенно нормально. 3.8. ПРОБЛЕМА ВЫБРОСОВ И ДОПУСТИМЫЕ (ТОЛЕРАНТНЫЕ) ГРАНИЦЫ Слишком большие или слишком малые значения внутри ряда умеренно различающихся измерений при известных обстоятельствах могут не приниматься во внимание. Ошибка измерения, ошибка при оценке, ошибка в расчетах или патологический случай при исследовании состояния здоровья могут привести к экстремальным значениям, выбросам, которые, поскольку они принадлежат другим генеральным совокупностям, а не той совокупности, которой принадлежит рассматриваемая выборка, должны быть исключены. Общее правило гласит, что одно по меньшей мере из 10 отдельных значений может быть отброшено как выброс, если оно лежит вне области х ± 4s, причем среднее значение и стандартное отклонение рассчитываются без учета этих экстремальных значений, рассматриваемых как выбросы. «Интервал 4 сигм» (\х ± 4 а) включает в себя при нормальном распределении 99,99% значений, при симметричном распределении с одной вершиной—97% и при произвольном распределении—94% всех значений. Выброс тем менее вероятен, чем меньше объем выборки. Табл. 55 позволяет проверить экстремальное значение в выборке объемом до п = 25 с помощью статистики, приведенной в последнем столбце. При 256
этом проверяется, не относится ли экстремальное значение, рассматриваемое как выброс, к другой генеральной совокупности, а не к той, к которой принадлежит данная выборка [Dixon, 1950]. Отдельные значения выборки упорядочиваются по величине. Через х± обозначается экстремальное значение, которое предположительно рассматривается как выброс: Далее проверка осуществляется тем же способом, что и для средних значений на с. 256. В числовой последовательности 157, 326, 177 и 176 значение 326 оказывается выбросом (S = 95%). Пример Задан ряд значений: 1, 2, 3, 3, 4, 5, 9. Значение 9 предполагается выбросом: согласно табл. 55 (п = 7) получаем т. е. подозрение, что это выброс, на 5%-ном уровне отбрасывается как необоснованное (предполагается нормальное распределение). При объемах выборки больше п = 25 экстремальные значения могут быть проверены с помощью табл. 56 на основании статистики 3=Н-# C.39) а где хг — подозреваемый выброс, fx и а заменяются значениями х и s. Если статистика равна или превосходит табличное значение границы, соответствующее заданной надежности S и объему выборки п, то принимается, что проверяемое экстремальное значение принадлежит к другой генеральной совокупности и для данного ряда измерений является излишним. Экстремальное значение, являющееся выбросом согласно приведенным критериям, может быть отброшено только тогда, когда рассматриваемые данные распределены приближенно нормально. Если «опознанные» подобным образом выбросы исключаются из выборки, то при анализе данных о них не нужно забывать и по крайней мере указывать их число. Может быть целесообразно при наличии выброса проводить статистический анализ дважды: с учетом выброса и без его учета. Если выводы на основании этих анализов отличаются, то следует рекомендовать чрезвычайно осторожную и осмотрительную интерпретацию таких данных. Так, например, выброс может быть проявлением изменчивости, характерной для данной генеральной совокупности, или может быть исходной точкой нового ряда измерений. Удобен также способ, предложенный в [P. Winsor, 19621: 1) выборочные значения упорядочиваются по величине; 2) выброс заменяется соседним значением. Так, для ряда 26, 18, 21, 78, 23, 17 получаем 17, 18, 21, 23, 26, 78 и затем 17, 18, 21, 20, 26, 9 Зак. 930 257
п 1 2 3 4 5 6 8 10 15 20 30 50 100 1000 5=95% 1,645 1,955 2,121 2,234 2,319 2,386 2,490 2,568 2,705 2,799 2,929 3,082 3,283 3,884 S=99% 2,326 2,575 2,712 2,806 2,877 2,934 3,022 3,089 3,207 3,289 3,402 3,539 3,718 4,264 Источи и к: Pearson E. S., Hartley Н. О. Biometrika Tables for Statisticians, Cambridge University Press, 1954, Table 24. Таблица 56. Верхние границы 26. При этом экстремальное зна- значимости стандартизированного чение рассматривается как неэкстремального отклонения ^„„J, r F допустимое, однако указание направления отклонения как- то учитывается. Если этот метод кажется неприемлемым, тогда от «винзо- ризации» отказываются и приводят осторожное усечение выборочного распределения: с двух сторон, т. е. с нижнего и верхнего концов выборочного распределения, отбрасывают от 3 до 6% — при сильной неоднородности — выборочных значений, причем одинаковое число с каждой стороны (см. с. 70, а также [Dixon, Tukey, 1968]). Если нужно малую выборку рассматривать как неоднородную, то в качестве меры рассеяния рекомендуется среднее абсолютное отклонение (см. с. 233), так как оно уменьшает влияние экстремальных значений. Подобно тому, как стандартное отклонение минимально, если отклонения измеряются относительно арифметического среднего, для С АО минимум достигается при измерении отклонений относительно медианы. Правило гласит, что для симметричных и слабо асимметричных распределений САО составляет примерно 4/5 стандартного отклонения (CAO/s ~ 0,8). Для проблем, объединенных названием контроль качества, табл. 56 имеет особое значение. Предположим, для некоторого изделия с"х = = 888 и s = 44 проверяется выборка объема п = 10. Наименьшее выборочное значение в одном случае из ста должно быть меньше, чем 888 — 44 • 3,089 = 752, 1 (для п = 10 и S = 99% коэффициент- равен 3,089). Изменяя знак отклонения, получаем, что максимальное выборочное значение может чисто случайным образом в одном случае из ста превосходить значение 888 + 44 • 3,089 = 1023,9. Если отклонения такого вида появляются чаще, необходимо продукцию данного вида тщательно перепроверить. Допустимые границы Доверительные границы относятся к некоторому параметру. Границы для некоторой части генеральной совокупности называются допустимыми границами. Допустимые границы показывают, внутри каких границ может находиться с заданной вероятностью S = A — а) 258
Таблица 57. Допустимые коэффициенты для нормального распределения. Коэффициенты для двустороннего допустимого интервала около среднего выборочного значения нормально распределенной генеральной совокупности: с вероятностью 5 лежит по меньшей мере у процентов от всей генеральной совокупности внутри допустимой области x~±k-s; при этом х и s рассчитываются на основании выборки объема п \> У п \. 3 6 12 24 30 50 100 300 500 1000 оо 5=0,95 0,90 8,38 3.71 2,66 2,23 2,14 2,00 1,87 1J7 1,74 1,71 1,65 0,95 9,92 4,41 3,16 2,65 2,55 2,38 2,23 2,11 2,07 2,04 1,96 0,99 12,86 5,78 4,15 3,48 3,35 3,13 2,93 2,77 2,72 2,68 2,58 0,999 16,21 7,34 5,29 4,45 4,28 3,99 3,75 3,54 3,48 3,42 3,29 0,90 18,93 5,34 3,25 2,52 2,39 2,16 1,98 1,82 1,78 1,74 1,65 5= 0,95 22,40 6,35 3,87 3,00 2,84 2,58 2,36 2 17 2,12 2,07 1,96 =0,99 0,99 29,06 8,30 5,08 3,95 3,73 3,39 3,10 2,85 2,78 2,72 2,58 0,999 36,62 10,55 6,48 5,04 4,77 4,32 3,95 3,64 3,56 3,47 3,29 Источник: Bowker A. H. Tolerance Factors for Normal Distribution, p. 102 (Statistical Research Group, Columbia University), Techniques of Statistical Analysis (edited by Churchill Eisenhart, Mallard W. Hastiy and W. Allen WaHis), New York and London, 1947, McGraw-Hill Book Company Inc. (Copyright 1 Marsh, 1966). определенная часть генеральной совокупности. Для нормально распределенной генеральной совокупности эти границы имеют вид лГ± k • s, где k — соответствующая постоянная. Например, для определения допустимого интервала, в котором в среднем в 95% всех случаев E = = 0,95, а = 0,05) лежит по меньшей мере часть у = 0,90 генеральной совокупности, по табл. 57 для объема выборки п = 50 получаем коэффициент k =_2,00. Допустимый интервал находится между х — — 2,00 • sylx + 2,00 • s. При этом х us — оценки среднего значения и стандартного отклонения, вычисленные на основании выборки из 50 элементов. Коэффициенты для односторонних допустимых границ означают ([Bowker, Lieberman, 1959], [Owen, 19633, [Burrows, 1964]), что ниже х + ks или соответственно выше х — k • s, например, в 95% всех случаев содержится по меньшей мере часть у генеральной совокупности. Если объем выборки достаточно велик, то приближенно справедливо соотношение х ± z • s. Строго говоря, это выражение справедливо только при п = оо. Для неизвестного распределения эти коэффициенты недействительны. Здесь исходят из минимального объема выборки, при котором можно принимать с доверительной вероятностью 5, что часть у генеральной совокупности лежит между наименьшим и наибольшим значениями в выборке (см. также [Weissberg, Betty, 1960], [Owen, 1968], [Faulkenberry, Daly, 1970]). 259
Таблица 58. Объем выборки для двусторонних непараметрических допустимых границ 0,50 0,80 0,90 0,95 0,99 0,999 0,9999 0,50 3 5 7 8 11 14 18 0,90 17 29 38 46 64 89 ИЗ 0,95 34 59 77 93 130 181 230 0,99 168 299 388 473 662 920 1171 0,999 1679 2994 3889 4742 6636 9230 11751 0,9999 16783 29943 38896 47437 66381 92330 117559 При небольших отклонениях от нормального распределения следует рекомендовать пользоваться непараметрическими допустимыми границами. Непараметрические допустимые границы Для того чтобы с доверительной вероятностью S = 1 — а часть элементов произвольной генеральной совокупности лежала между наименьшим и наибольшим выборочными элементами, необходимый объем выборки п легко определяется по табл. 58. Табл. 58 содержит объемы выборок п для двусторонних непараметрических границ, которые удовлетворяют уравнению Уилкса [Wilks, 1941, 1942] щп~х — (п — 1) Vя = 1 — $ = <*• В среднем со статистической надежностью 5 по меньшей мере часть у произвольной генеральной совокупности лежит между наименьшим и наибольшим значениями случайной выборки из этой генеральной совокупности. То есть примерно в 5% случаев, в которых из произвольной генеральной совокупности будет взята выборка объема п, экстремальные значения выборки содержат по меньшей мере у • 100% значений генеральной совокупности. Пример 1 Для 5 = 0,80 и 7 = 0,90 объем выборки получается равным п = = 29, т. е. случайные выборки объемом п = 29 содержат в среднем в 80% всех случаев по меньшей мере 90% генеральной совокупности. Если расположить выборочные значения по величине, то в среднем с доверительной вероятностью 5=1 — а внутри интервала между наименьшим и наибольшим значениями в выборке лежит по меньшей мере у # 100% элементов генеральной совокупности. Табл. 59 дает значения 7 для различных вероятностей ошибки а и объемов выборки я. Пример 2 Экстремальные значения выборки объема п = 30 содержат с а = = 0,05 свыше 85% области значений генеральной совокупности. Нельсон [Nelson, 1963] дал номограмму для быстрого определения непараметрических допустимых границ. Важные таблицы помещены в [Danziger, Davis, 1964]. 260
Подробная таблица и номограмма для определения односторонних непараметрических допустимых границ даны в [Belson, Nakano, 1965] (см. также [Harmann, Guenther, 1970]). 3.9. НЕПАРАМЕТРИЧЕСКИЕ МЕТОДЫ ДЛЯ СРАВНЕНИЯ НЕЗАВИСИМЫХ ВЫБОРОК Простейший непараметрический критерий для сравнения двух независимых выборок предложил Мостеллер [Mosteller, 1948]. Предполагается, что объемы выборок равны (пх = л2 = л). Нуль-гипотеза (обе выборки взяты из генеральных совокупностей с одинаковым распределением) при п > 5 отклоняется с вероятностью ошибки 5%, если 5 наибольших или наименьших значений при п ^ 25, 6 наибольших или наименьших значений при п > 25 содержит одна и та же выборка. Коновер [Conover, 1968] дал интересное обобщение этого критерия. Упрощенные критерии Розенбаума Оба непараметрических критерия применяются для независимых выборок равного объема пх = п2 = п. Критерий положения. Если по меньшей мере 5 (для п ^ 16; а — = 0,65) или 7 (для п ^ 20; а = 0,01) значений одной выборки лежат выше или ниже размаха другой выборки, то нуль-гипотеза (равенство медиан) с заданной вероятностью ошибки отклоняется; предполагается, что различие размахов случайное; вероятности ошибки даны для одностороннего критерия; для двустороннего критерия они должны быть удвоены [Rosenbaum, 1954]. Критерий изменчивости. Если по меньшей мере 7 (для п ^ 25; а = 0,05) или 10 (для п ^ 51; а = 0,01) значений одной выборки (с большим размахом; критерий односторонний) лежат вне размаха другой выборки, то нуль-гипотеза (равенство мер изменчивости — дисперсий) отклоняется с заданной вероятностью ошибки; предполагается, что различие медиан случайное. Если неизвестно, что обе генеральные совокупности имеют одно и то же положение, то этот критерий проверяет и положение и рассеяние. Для 7 ^ п ^ 24 необходимо заменить 7 на 6 (а = 0,05), для 21 ^ п ^ 50 (или 11 ^ п <! 20) нужно заменить 10 на 9 (или на 8) [Rosenbaum, 1953]. Обе работы содержат критические значения для случая, когда выборки имеют неодинаковый объем. Ранговые критерии Если п выборочных значений упорядочены по величине и обозначены через *A), хм, -., Х{П), так что 261
•*¦« CO CM 00 СО 00 СО t4» »~* *Ф N» CO CM tO N> 00 СО CN CO lO CO t^» 00 ОЗ CO *"* CN CO CO "!f tO О О О О* О О*О*О* 0*0*0*0*0* О*О*О*О О* О О*О О*О ООООО ООО "^ СО lO ""Ф lO OO IjO Ь© *~* СО ^^ СО 00 ОО N> СО 00 CN tO t4- 00 00 ОО t4» tO CO CO t*** CO ОЗ lO 0*0*0*0*0*0*0*0* 0*0*0*0*0* 0*0*0*0*0* 0*0*0*0*0* 0*0*0*0*0* о*о*о* S»*^ CO lO CD 00 ОЗ *~н ?>>| со *"Ф lO CO I4"* N1 00 О) ОЗ CO СО ^^ СО СО СО COCOCON NNNNN NNNNN OOOOOO 0*0*0*0*0*0*0*0* 0*0*0*0*0* 0*0*0*0*0* 0*0*0*0*0* 0*0*0*0*0* О*О*О* О ~-« CN СО 'Sf *Ф Ю Ю Ю СО СО СО СО CONNNN NNNNN N00000000 OOOOOO 0*0*0*0*0*0*0*0* 0*0*0*0*0* 0*0*0*0*0" 0*0*0*0*0* 0*0*0*0*0* 0*0*0* СО N> N» CO tO t» CO t**» OS CO CO CN CO N1 CN CD 00 ОЗ ОЗ ОЗ 00 СО СО СО СО СО 00 С СО СО ОЗ I""*» CO 00 СО СО ОЗ CN lO I4"» ОЗ СО CN СО *Ф lO CD С4- 00 ОЗ СО ^—' •-* CN CN С _ «—• CN CN СО *Ф т*« Ю Ю lO СО СО СО СО NNNNN N NNN CO OOOOOOOOOO OOOOOO О 0*0*0*0*0*0*0* 0*0*0*0*0* 0*0*0*0*0* 0*0*0*0*0* 0*0*0*0*0* О*О*О* к *^}* т^« CN ОЗ СО tO СО 00 tO СО ^^ "*!* СО *Ф N« N» ^t* '-*< ОЗ ОЗ CN 00 ОЗ tO CD CO t4* N« ""Ф 00 СО Л О О> CN N О О СО 00 OCOOON СО N О CN CO (M^ONrf *—• N СО 00 СО 00 CN N ¦ CN CN CN ОЗ Ю —i Ю ОО ^^ОсОО CNCOlOcON 00 0H0^ CN CN CO 00 *Ф *Ф Ю tO fe »-4 CN СО СО *4* Ю tO LO СО СО СО СО N NNNNN NNOOOOOO ОООООООСОО 000000 klO О 0*0*0*0*0*0* 0*0*0*0*0* 0*0*0*0*0* 0*0*0*0*0* 0*0*0*0*0* О*О*О ""Ф СО СО СМ СО СО ООО СО СО N СО СО OOCOCDO СО О 00 ~^ О CN О tO СО *Ф О CN »—¦< Ю 00 CN ОО ОЗ ОЗ СО tO tO ^~* СО СО СО СО ОЗ CN СО СО СО *-ч ОЗ N СО СО СО *¦—' CD **¦* 1О СО "Ф '—• CN СО чф rj< Ю Ю СО СО СО СО NN NNNNN N00 00 00 00 OOOOOOOOOO OOOOOO ОООООООО ООООО О*О*О О О ООО О*О ООООО ООО О СО СО N ^^ СО ~^ CN СО <М О ОЗ N N О *—' О О СТз CN 00 О "* ^ —и СО CN 00 CN CN'—« ¦^ <о со со оз '•ф оо cn *ф ^N» оз *~* со *^* со ^s• оо оз со *~* **** cn со со ^j* ^t* to to со со i-*- »-^ CN CO "Ф ^* lO tO СО СО СО СО t*» t"^ N> t4*» Г4^ N> N« 00 00 00 00 CO 00 00 00 00 00 00 00 00 оооооооо ooooo 0*0000 о o*o0*0* 0*0000 000 I4» O3 CN CN O3 t(* CO 00 ^** lO CO CO ^* 00 00 tO <O CO CO *Ф t*4* tO 00 t**- *~* CN O) CO tO ^^ » •—«о со ~^ о оз оз см •-1 ю со to —« юооо^о о n тр —1 n со о-^ 00 со n •-• to CO 00 t4»» tO *~< tO O3 CO CO СО CO CN ^Ф tO CO OO O3 CO CO гши CN CO CO "si* ^" tO tO CD CD N» I**» *~"* CN CO ^* lO lO lO CO CO CO t4» t4» N» N> Is» N1 t4*» 00 00 00 00 00 00 00 00 00 OO 00 00 00 00 оооооооо ooooo 0*0000 ooooo ooooo 000 t4*" CO CO ^ч CN O3 *""^ ОЗ *\{У ^f* CO CO ОЗ С^З tO ОЗ *~* ^^ O3 C^** 00 ^1^ tO *"^^ '^f CO СЛ CN CN CO CD CO Ю О Ю -ф ~ч 1-щ СО «--• lO СО 'Ф О COCON00N tOCOONCC O^t*O CD 00 CNCDO »—• CN CO чф Ю tO CO CO CO CO NNN N NNN 00 OOOOOOOOOO OOOOOOOOOO OOOOOO 00*0*0*0*0*0*0* 0*0*0*0*0* 0*0*0*0*0* 0*0*0*0*0* 0*0*0*0* 0*0*0* SCNOOOCOCOOOO -HOOlOOtO CNtOlOlOtO 00 CO CN CO Ю O^OCOlO rH ~-« CD OO CO N CD 00 ^ ^f —» rt< ^ CN N '—CO'sFtFCO »—• О CD CN 00 ^OCOOOCN CDOCO ' 00 О О N CO 00 CN lO 00 О CN Tt< Ю tsflOO>0-< CN CN CO Tt< -^f tO Ю CD CD N N00 00 К~* CO-T^lOtOCOCD CONNNN N N N 00 00 OOOOOOOOOO OOOOOOOOOO OOOOOO ¦^0*0 0*0*0*0*0*0* 0*0*0*0*0* 0*0*0*0*0* 0*0*0*0*0* 0*0*0*0*0* 0*0*0* 00 tO ^¦^ t^ ^Ф 00 CO CN 00 t^D CN CO ^^^ 00 00 tO CN CO ^*^ ^Ф CN ^t* **~* tO ^Ф *^"^ "^3* ^Ф CN 00 CN tO CO CO Oi N» CO *""• CO O3 CN CN ОЗ ^Ф N- O3 CD CO O3 t4- ^st* ~—* N CO 00 CO OO CN CD CO CO ?**• OCN~-•OO^OCOCO OO '—1 CO Tf CO NOQO»—•'-4 CNCO'^f'^'iO tOCDCDNN OOOOOO i—• CO "Ф "^ Ю Ю CO CO CONNNN NNOOOOOO OOOOOOOOOO OOOOOOOOOO OOOOOO оооооооо ooooo ooooo ooooo ooooo 000 rf tO О N CO Ю tO tJ« N ^ CM N CO 00 0 0 01»— CN NN CO CO ~-• Ю Ю "f О СО тН rf rf CO N 00 CO CO ^^ О TflOcOOOCN ^ lO "Ф CO •-< 00 *Ф О CD —< CDO^OO<-| Ю 00 »— ^NCOCOOCONO CN^CONO O'—'CNCO1^' "«flOCOCDN NOOOOOOO OOO CN CO ^ Ю lO CO CO N NNNNN OOOOOOOOOO OOOOOOOOOO OOOOOOOOOO OOOOO 0*0 0*0*0*0*0*0* 0*0*0*0*0* 0*0*0*0*0* 0*0" 0*0*0* o*0*0*0*0* 0*0*0* ^юодсо~чсосмо ^t^noocm cnocoloco oorocoo cn —« со cn to юсоо NNONOOCNO -hOCOOcO TfCOCNO N г^СЙЮО^ О) (О CD О П CDOCN ¦^--ONCNCOOCN lONOOO-^ CNCOrfLOLO CO CO N 00 00 OOOOOO OO — t^.t-N.0000 oooooocooo cooooooooo oc^oo oc o^o^ о о о О О О*О*О* О*О ООО ООООО ООООО ООО CO^lOCDNOOOO *-<CNCO<n«lO CDNOOOO »—• CN CO "^f tO CDNCOOO »~' CN CO ^ ^^-,^^^ч ^^-.^^CN CNCNCSCNCN CMCNCNCNCO COCOOO о S S X ев о. 2 I § О S Q. I O, С S о Ю 262
О »-н О *Ф О- t*- tO —• tO I4- t4- CO 00 О СО СО ОО СМСОООО**** 00 СО CN t"» N О 1Л 00 00 О CDtO О СО —I СО •—« СОО^ООСМ СО О СО СО О СО 1О О СМ »—« М4 О)Г*1-" *Ф vD OO О О СО о*о* о*о*о*о*о* о*о*о*о*о* оо*ооо ооооо ооооо ооооо ОСМ —• 00 CN чф Ю СО О СО О CN СО СО tN О CD COCOOOCOO TFlOCOCMt"- ^1^00СО«--« ОООО OOOOOOOOOO OOOOOOOOOO OOOOOOOOOO OOOOOOO) О О O^O^O^ О^О^О^О^О^ о*о* о*о*о*о*о* о*о о о*о ооооо ооооо ооооо ооооо CNO О Г4- N СО СО 00 —i ^ -«ф *ф СМ О tO —'tO ^*OO Ю Ю CO »—• Ю 00 О CO Is— CD чф CO CMCN CM CO CO "<ф тр Tt^tOlOtOCD CO CD CO t4- h- О О •—« CN CO CO t4- 00 00 00 ^^^2^2^ oooo oooooooooo oooooooooo oooooooooo oooooo oooo o^ o^o^o^cd^cd^ о о оo*o*o*o ooooo о o*o*oо ooooo ooooo ooooo — "Ф Tf CN О Tt4 N 00 00 h- Ю — CD —« rf CD 00 CD Ю CM О •-¦ CNNlfJ'tCO t*- l4- Ю CM — О14** 00 CN Ю О CN ЮСО^^Ь О CN ^Ф СО 00 COOOCO CO «—« О Ю 00 О —* CM CO "Ф CO ¦^•^ ^ЮЮЮСО CDCOt^l^t4^ t4*- CO CO CO 00 О —• CM 00 чф N 00 OOOOO OOOOO oooo oooooooooo oooooooooo oooooooooo ooooo ooooo^ о^о^о_о^Ож о о ооо о*о* о*о о о*о ооооо ооооо ооооо ооооо СМ СМ О Ю О »—« СМ —нОСО'—CD OCN^T^Tf ООООООСО WOONCO —н "^* СО »-< t4- чф СМ СО О СО СО О СО СО ОО —« ""Ф CD ОО —« СО tO t4- COlOrf<-<N СО <N СО О —* CN СО ч*« rf CO tOtO Ю СО СО Is- t4- N t-- 00 СО GO COCDOOO »—' CN ОО чф «*{< t4- 00 СО ОО О ООООО ОООО ООООСОСООО 00 00 СО СО СО OOOOOOOOOO ООООО ООООО ООООО о о* о*о*о*о*о* о*о ооо ооооо ооооо ооооо ооооо О N СО СО 00 О СО CDCNt>- —< *Ф NCOCO00N СМ^ФОЮО (N^iflON O)NtON »—« r^« 00 *""• Tf t4*- CO CO CD 00 •—• CO tO t4" O) *~« CO O) CO 00 lO CO lO CO t*^> CO *~^ CM CO ^J* tO CO CD CD CD t4^ C4^1 t4^- CO CO 00 00 CD CD CD CD CT> CO CO ^-« CO 00 ^'J* Ю I4*» 00 00 O5 CD O) CD CD CD CD coco oooooooooo oooooooooo со оо со о о ooooo ooooo ooooo OO OOOOO OOOOO OOOOO OOOOO OOOOO OOOOO ОЮ О —• -и О СО 'tO'tNOJ О О О 00 СО ч* О ¦—* "Ф "* ЬОООСМЮ'—' СЧ ¦—" Г*- 00 00 Г- *—< 'ф 00 —<-^ CD О CM rf CD 00 *-* СО "«t1 СО 00 СО т*« СМ 00 00 СО^ОООСМ CO^fT^lOCD CD t4^- I4*" Г4^ СХ) 00 ОО 00 О CD О CD СО СО СО СО СО CSI 00 Tf *ч* 1О С**1* ОО 00 CD CD CD CD CD О) О) 00 00 00 00 00 СО СО СО 00 СО СО 00 CD CD CD О) О) О) О) О) О) О) О) О) О) О) О) О) CD О) CD О) ?*¦*• ^^ ^d4 "*^ "^* CN 00 СО t4^ c*mij CN 44i4 ^Nt4 CO C^ ^,з f*^» 00 ^j** Г*1^ t4^ CO ^O CO C4^ ^^ CO COt4- OCOCDO—< "«d* СО О —'CO tOl^O»-^CN CON'tOlO t*~ Ю GO *—i CM -,^ t^-t4- OOOOOOOOCD OOOOO О О О —' —' CNCO^ Ю Ю N00 00 0H) ООООО 00^00^ ОО^СО^СО^ОО^ОО^ СО СО^СО^О^О^ О^О^О^О^О^ О^О^О^О^О^ 0)^0)^0) О О^О О О5ж<^)л О*О* О*О*О*О*О* О*О*О*О*О* 0*0*0*0*0* 0*0*0*0*0* 0*0*0*0*0* 0*0*0*0*0* CD О —ОСТ>Ю— ЮСО—«CNCN —• О 00 Ю CN OOCOOt^-т»* ЩСОСМт^ОО CO CO CN t>- — GO—i Ю СО О CO CD СО О 00 Ю Г^ О *-< СМ ^Ф CD OiONWN 00 Ю О *—• CN CO Tt4 Ю Ю Г*- h-CC COCOCDCDCD ООООО О »—< '—i —¦ *—i СМСО^Ф Ю Ю t4- ОО ОООО ООООО ОООО OOOOOOOOOO 00 О) О) О Оз ООООО CFi CTi О ОО ООООО ООООО оо ооооо ооооо ооооо ооо о*о* о о о*о*о* о*о о*о*о* OCN CN — OOrt-00 CN^CDCDCD "^CNOCOCM ОООООЮО COCNCOI>.'~' —ССФООСМ COCO OCN'* NO) CM "гг CD CO О CM Tt4 CD t4- О CM *—• 00-«t1 О О СО О —• CO *<*iOWN OOOO 00 03 0HH) О О О О >—• «—< *—< ^-н »-н ¦•-< СО'фчф Ю Ю N000000 ООООО со^со^ оосооосооо ooocdo ооооо ооооо ооооо ооооо О О 0*0*0*0*0* 0*0*0*0*0* О* О* О* о"О*" 0*0*0*0*0* 0*0*0*0*0 0*0*0*0*0* СО О) OCOCOCOCN lOCOt^NCO ^t »-i OOrfO О OON*-*^ О NOOM СООЮОСО CD CD CM IjO СО О СО lO Is* CD »-~« СО lO t4» 00 СО CN ^Ф 00 СО CD CO CO CO CD CM 00 *Ф Ю tO CD t4^* СО СО О> CD С7) СО СО СО СО СО »—« '—< *—< *~н »—i CN CN CO ^* IjO Ю СО 00 00 CD CD О) О) О) О) CD О ОООО OOOQOOOO ООООО ООООО ООООО ООООО ООООО ОО ООООО ООООО ООООО О*О*О О О* О О*О*О*О 0*0*0*0*0* СО "^ СМ О tO О CN ^Ф tO tO tO 00 *—i Г4— **d* CD т|^ t*^ CO CM Ю I4*1 t4»» *™^ 00 CM iO Ю »~* t*^ *~< ^* OO CDOOOO О —« —' »—< "—« —i —i CM CM CM СО'ФЮЮСО OOOOOOO OOOOO COCO OOOOOOO OOOOO OOOOO OOOOO CDOOOO OOOOO OO OOOOO OOOOO OOO O*O* 0*0*0*0*0* O*O*O*O*o\ O*O*O*O~O* CN CD Tfr* t4— CO '~t C4) »—< CD l>> ^Ф CO CD CO lO 00 »~< О СО Ю CO t4" CM 00 CO CO ^* tN 00 CO CD CO ^Ф CD (IT) »—i "ф CD GO CO ""« CO lO !>• CO CO ^—* CN ч^1 ч^< CN CO CO CO CO 00 '—< 0^ ""ф Ю li CD CO t4*- ^Я^ ^^!^^^ ?J?}<^???i cNcocococo ^фююсосо cocoooo o-cdocdo 0H Ob <J> (J) C7> CJ) 03 0 0HH) CDOOOO OOOOO O) OOOO OOOOO OO OOOOO OOOOO OOOOO OOOOO OO O*O*O 0*0*0*0*0* ICO) — CM CN CNO N чф о Ю О CO CD О — CO О 00 О — *Ф -н—«1ЛОО Г--сОГ-.«-)Г5 *ФСО О — СО tO С— ОООСЧСО'Ф COCDOOO'--* ONCONO ЮОСМ-^Ю ЮООСО^-ОО ^-ц^_« »—iCNCNCNCN CNCOCOCOCO CO00CO'^t>'i5f Ю Ю CDCON OOOOOO О) О"> О) О) О) О) Оз О) О) О> О) Оз О) О) О) О) СЗЪ О О4) Оз О) ОЗ О О) О) О) О) СЛ CD О) О> CD О) О) CD CD О) оо ооооо ооооо ооооо оо о*о*о* о*о*о*о*о о*о*о*о*о* CO со J3 Ю 8 2 с/Э 5 ^tO CDh-COOO — CN СО -^ to ON0C0)O ОООО COCO СОСОСООО^ ^^rf-Ф^ ^^H^TflO 0NOOO) S3 о S 263
то любое значение X(t) называют ранговым значением (или ранговой статистикой, order statistics). Номер выборочного значения называют рангом или ранговым числом (rank). Значению хщ соответствует ранг i. Критерии, в которых вместо выборочных значений используются их ранги, образуют особенно важную группу непараметрических критериев. Ранговые критерии показывают удивительно высокую асимптотическую эффективность. Кроме того, они не требуют громоздких вычислений! 3.9.1. РАНГОВЫЙ КРИТЕРИЙ РАССЕЯНИЯ ЗИГЕЛЯ И ТЬЮКИ Поскольку /^-критерий чувствителен к отклонениям от нормального распределения, Зигель и Тьюки [Siegel, Tukey, 1960] предложили непараметрический критерий, основанный на критерии Уилкоксона. Он позволяет проверить нуль-гипотезу: две независимые выборки относительно их изменчивости, рассеяния или вариации относятся к общей генеральной совокупности, против альтернативной гипотезы: обе выборки принадлежат различным генеральным совокупностям. С увеличением разности между средними значениями генеральных совокупностей уменьшается вероятность того, что нуль-гипотеза при наличии действительной разницы в дисперсиях будет отклонена, т. е. чем больше разница средних значений, тем больше вероятность ошибки второго рода. Это особенно справедливо при малых дисперсиях. Когда генеральные совокупности не перекрываются, мощность критерия равна нулю. Этот критерий, весьма чувствительный к разнице дисперсий при равных параметрах положения (см. также [Bradley, 1968]), был распространен Майер-Бальбургом [Meyer-Bahlburg, 1970] на случай k выборок. Для применения этого критерия объединенная выборка (пх + п2 при пх ^ п2) упорядочивается по рангам, причем экстремальные значения получают малые, а центральные, средние наблюдения — высокие ранговые значения: наименьшее значение получает ранг 1, два наибольших значения получают ранги 2 и 3, ранги 4 и 5 получают следующие наименьшие значения, 6 и 7 — следующие наибольшие значения и т. д. Если число наблюдений нечетно, то среднее наблюдение не получает никакого ранга, если четное, — оно получает наивысший ранг. Для каждой выборки определяется сумма ранговых чисел (Rl9 R2). При пх = п2 нуль-гипотезе соответствует соотношение R1 « R2, чем больше отличаются выборки по своим дисперсиям, тем больше разница между Rt и R2. В качестве контроля правильности определения ранговых сумм служит выражение #i + #2 = (пх + п2) (лх +п2 + 1)/2. C.40) Для оценки разности при малых выборках (пг ^ я2^20) авторы дают точные критические значения. 264
Для не слишком малых выборок fa и п2 > 9 или пг > 2, /г2 > 20) разница дисперсий с достаточной точностью может быть определена на основании стандартной нормальной переменной При этом i?x — сумма рангов меньшей выборки. Если 2RX > пх fa + п2 + 1), то в выражении C.41) заменяют + 1 на—1. Сильно различающиеся объемы выборок При сильно отличающихся объемах выборок выражение C.41) становится неточным, и следует использовать скорректированное выражение (Ы <3-41а) Много одинаковых значений Если больше чем пятая часть наблюдений связана равенствами или зависимостями (ties)—зависимости внутри выборки не мешают, —то знаменатель статистики C.41) нужно заменить выражением УЧ fa+n2 + 1) (/ь/3)—4 [fa ntlfa + nj fa + nt—l)](S1—S^t C.42) где St — сумма квадратов рангов зависимых наблюдений, a S2 — сумма квадратов средних рангов зависимых наблюдений. Например, для последовательности 9,7; 9,7; 9,7; 9,7 получаем обычные ранги 1, 2, 3, 4; средние ранги 2,5; 2,5; 2,5; 2,5 A + 2 + 3 + 4 = 2,5 + 2,5 + + 2,5 + 2,5); для последовательности 9,7; 9,7; 9,7 — обычные ранги 1, 2, 3 и средние ранги 2, 2, 2. Пример Даны выборки А и В: А I 10,1 7,3 12,6 2,4 6,1 8,5 8,8 9,4 10,1 9,8 В | 15,3 3,6 16,5 2,9 3,3 4,2 4,9 7,3 11,7 13,1 Проверить возможную разницу дисперсий на уровне 5%. Так как неизвестно, принадлежат ли выборки нормально распределенной генеральной совокупности, применим способ Зигеля и Тьюки. Упорядочим значения по величине: Л | 2,4 6,1 7,3 8,5 898 9,4 9,8 10,1 10,1 12,6 В | 2,9 3,3 3,6 4,2 4,9 7,3 11,7 13,1 15,3 16,5 и разместим по рангам: 265
Значения [ 2,4 2,9 3,3 3,6 4,2 4,9 6,1 7,3 7,3 8,5 8,8 Выборка Ранг Значения Выборка Ранг А 1 9,4 А 18 В 4 9,8 А 15 В 5 10,1 А 14 В 8 ю, А 11 В 9 1 В 12 11,7 в 10 А 13 12 Л 7 Л 16 ,6 в 17 13,1 6 15 Б 3 Л 20 ,3 1 А 19 16,5 в 2 После определения ранговых сумм цА = 1 + 13 + 16 + 20 + 19 + 18 + 15 + 14 + 11 + 7 = 134; Ял = 4 + 6 + 8 + 9 +12+17+10 + 6 + 3 + 2 = 76 и их контроля 134 + 76 = 210 = A0 + 20) A0 + 10 + 1)/2 получаем 2= 276—10A0+10+1)+! = 152-210+1 ^ _2 154 Т/Ю(Ю+10+1) A0/3) V700 Значению \z\ = 2,15 в табл. 13 соответствует вероятность Р ~ ~ 0,0158. Для двустороннего критерия при Р ~ 0,03 получаем на 5%- ном уровне значимую разницу дисперсий: на основании заданной выборки с доверительной вероятностью S = 95% имеется разница дисперсий генеральных совокупностей. Хотя здесь только 10% наблюдений между выборками связано равенствами G,3; 7,3 — значения 10,1; 10,1 можно и не принимать во внимание, так как они находятся внутри одной выборки А), продемонстрируем применение «длинного корня» C.42); если учитывать все связи, то получается: Sx = И2 + 142 + 162 + 172 = 862; S2 = 12,52 + 12,52 + 16,52 + 16,52 - 857 и 1/-10A0 +10+1) A0/3) — 4«10-10/A0+10) A0+10 -— 1) (862—857) = = V 700— 100/19 = У 694,74 = 26,36, 9 = _ J1L = _ 2,162 — весьма мало увеличенное значение по от- ношению кг — — 2,154. 3.9.2. СРАВНЕНИЕ ДВУХ НЕЗАВИСИМЫХ ВЫБОРОК; УПРОЩЕННЫЙ КРИТЕРИЙ ТЬЮКИ Две группы измерений отличаются тем больше, чем меньше пересекаются их значения. Пусть одна группа содержит наибольшее, а другая наименьшее значение; тогда необходимо подсчитать: 1) те значения группы, которые превосходят все значения другой группы; 266
2) те значения другой группы, которые меньше всех значений первой группы. Оба значения (каждое должно быть больше нуля) складываются, и таким образом получается значение статистики 7\ Если объемы выборок примерно одинаковы, то критические значения статистики равны соответственно 7, 10 и 13: 7 — для двустороннего критерия на 5%-ном уровне; 10 — для двустороннего критерия на 1%-ном уровне и 13 — для двустороннего критерия на 0,1%-ном уровне [Tukey, 1959]. Двум равным значениям следует приписать число 0,5. Если мы обозначим объемы выборок через пг и п2 при пг ^ п2, то критерий справедлив при не слишком сильно отличающихся объемах выборок, а именно при п± < п2 < 3 + 4 пх/3. C.43) Во всех других случаях рассчитанное значение статистики Т перед сравнением его с числами 7, 10 или 13 должно быть уменьшено на корректирующее число: 1, если C + 4 пг/3) <п2< 2/гх; C.44) целую часть от n2~""n , если 2пг ^ п2. C.45) Например, для пх = 7 и /г2 = 13 условие C.43) не выполняется, А 7 Q7 так как 3 + —. = —<; 13. Корректирующее значение в соответствии с C.44) равно L 14 4-4-1 При л1 = 4ил2= 14 в соответствии с C.45) получаем ~- = = — = 2,75, т. е. корректирующее значение равно 2. Если одна выборка превышает другую больше чем на 9 элементов (п2 — пг ^ 9), то для 0,1 %-ного уровня нужно применять критическое значение 14 вместо 13. Сходный критерий предложен в fHaga, 1960J. Пример А: 14,7 15,3 16,1 14,9 15,1 14,8 16,7 17,3* 14,6* 15,0 14, 13, 7 9 15 14 ,3 ,6 16, 14, 1 2 14 15 ,9 ,0* 15,1 14,3 14,8 13,8* В: 13,9 14,6 14,2 15,0* 14,3 13,8* 14,7 14,4 Отмечаем наибольший и наименьший элементы каждого ряда звездочкой. В первой группе имеется 5 значений; больших чем 15,0, и одно значение, равное 15,0. Во второй группе 5 значений, меньших чем 14,6, и одно значение, равное 14,6. Значение статистики равно Т = 5,5 + + 5,5= 11. Корректирующее значение равно нулю, так как (щ ^ < п2 < 3 + 4лгх/3) 8 < 10 < 41/3. Поскольку Т = 11 > 10, нуль- гипотеза (равенство функций распределения, соответствующих обеим выборкам) на 1 %-ном уровне должна быть отклонена. Точные критические границы для малых выборок можно получить из оригинальных работ. 267
Дальнейшее развитие этого критерия изложено в [Neave, 1966], где приведены подробные таблицы (см. также [Granger, Neave, 1968], [Neave, Granger, 1968]). Графический вариант критерия Тьюки описан в [Sandelius, 1968]. 3.9.3. СРАВНЕНИЕ ДВУХ НЕЗАВИСИМЫХ ВЫБОРОК ПО КОЛМОГОРОВУ И СМИРНОВУ Если необходимо сравнить две независимые выборки измерений (или значений частот) и ответить на вопрос, относятся ли они к одной и той же генеральной совокупности, то наиболее строгим критерием однородности является критерий Колмогорова A933) и Смирнова A939). Он включает в себя проверку всех видов различия распреде- делений, в особенности различия средних положений (среднее значение, медиана), рассеяния, асимметрии и эксцесса, т. е. различия функции распределения (см. также [Darling, 1957] и [Kim, 1969]). В качестве статистики служит наибольшая разность между ординатами обеих относительных кривых накопленных частот. При этом (при одинаковых для обеих выборок границах классов) накопленные частоты Ft и F2 делятся на соответствующие объемы выборок пг и п2. Затем вычисляется разность /Уях — /Ул2. Максимум абсолютного значения этой разности и есть искомая статистика D (для более интересного в этом случае двустороннего критерия): C.46) Распределение статистики D было табулировано Смирновым A948). Для средних и больших объемов выборок (пх + п2> 35) значениеD может быть приближенно заменено выражением =К*»'У "let* C.47) где К(а) есть постоянная, (см. замечание на с. 302). зависящая от вероятности ошибки а Таблица а *(a) 60 0,20 1,07 0,15 1.14 0, 1, 10 22 0 1 ,05 ,36 0 1 ,01 ,63 0 1 ,001 ,95 Если определенное на основании двух выборок значение D достигает критического значения Dw или превосходит его, это означает наличие значимой разницы между распределениями или функциями накопленных вероятностей. Для малых выборок таблицы 5 — 1%-ных границ даны в ISiegel, 1956] и ILindgren, 1960]. Для случая равных 268
объемов выборок (пг = п2 = п) приведено ниже несколько строк из таблицы [Massey, 1951], для критических значений Drt(a) в знаменателе указан объем выборки (табл. 61). Числитель для нетабулирован- ных значений Dn(a) получается по формуле К(а) • V я, его надо округлить до следующего целого числа. Например, для а = 0,05 и /г = 10 получаем 1,36 ]/2-10 = 6,08 и округляем до 7, т. е. Dlo(o 0Б) = = 7/10. Таблица 61. Отдельные значения Dn(a) n(=ni=n2) <х=0,05 Критерий двусторонний а=0,01 10 7/10 8/10 15 8/15 9/15 20 9/20 11/20 25 10/25 12/25 30 11/30 13/30 Если вычисленное на основании двух выборок значение Ь равно критическому значению Dn^a) или превосходит его, то имеется значимое различие. Пример Необходимо сравнить два ряда измерений. О возможных различиях какого-либо вида ничего не известно. Мы проверяем нуль-гипотезу: генеральные совокупности одинаковы,—против альтернативной гипотезы: генеральные совокупности имеют различные распределения (а = 0,05, критерий двусторонний). Ряд измерений 1: 2,1 3,0 1,2, 2,9 0,6 2,8 1, 6 1,7 3,2 1,7 Ряд измерений 2: 3,2, 3,8 2,1, 7,2 2}3 3,5, 3, 0 3,1 4,6 3,2 10 значений каждого ряда упорядочим по величине. Ряд измерений 1: 0,6 1,2 1,6 1,7 1,7 2,1 2,8 2,9 3,0 3,2 Ряд измерений 2: 2,1 2,3 3,0 3,1 3,2, 3,2 3,5 3,8 4,6 7,2 Из распределений частот (Д и /2) обеих выборок определяем накопленные частоты Fx и F2 и вычисляем отношения Fxlnx и F2/n2. Таблица 62 Интервал h /2 FJrn F2/n2 Fi/ni-Ft/nt 0,0-0,9 1 0 1/10 0/10 1/10 1,0-1,9 4 0 5/10 0/10 5/10 2,0-2,9 3 2 8/10 2/10 6/10 3,0-3,9 2 6 10/10 8/10 2/10 4,0—4,9 0 1 10/10 9/10 1/10 5,0-5,9 0 0 10/10 9/10 1/10 6,0-6,9 0 0 10/10 9/10 1/10 7,0-7,9 0 1 10/10 10/10 0 269
В качестве абсолютно наибольшей разности получаем значение D = 6/10, которое меньше, чем критическое значение ?>lo(OtO5) = = 7/10; следовательно, гипотеза об однородности сохраняется: на основании имеющихся выборок нельзя отвергать возможность существования общей генеральной совокупности. На одностороннем критерии Колмогорова — Смирнова C.47) при /C0j05 = 1,22 или /COioi — 1,52 мы здесь подробно останавливаться не будем, так как он обычно лежит в основе ранговых критериев, например (/-критерия Уилкоксона, Манна и Уитни. В [Birnbaum, Hall, 1960] даны критические границы для трехвы- борочного критерия, которые табулированы также и для двухвыбороч- ного одностороннего критерия. В разд. 4.4 критерий Колмогорова — Смирнова используется для сравнения наблюдаемого и теоретического распределений. ©3.9.4. СРАВНЕНИЕ ДВУХ НЕЗАВИСИМЫХ ВЫБОРОК: 17-КРНТЕРИЙ УИЛКОКСОНА, МАННА И УИТНИ Ранговый критерий Манна и Уитни [Mann, Whitney, 1947], основанный на так называемом критерии Уилкоксона для независимых выборок, есть непараметрический аналог ^-критерия для сравнения двух средних значений непрерывных распределений. Эта непрерывность, строго говоря, никогда на практике не выполняется, так как все результаты измерений являются округленными числами. Асимптотическая эффективность (/-критерия равна 100 • 3/я ~ ~ 95%, т. е. при использовании этого критерия для 1000 значений мощность критерия получается такая же, как при использовании ^-критерия для 0,95 • 1000 — 950 значений при условии справедливости нормального распределения. Очевидно, что (/-критерий целесообразно применять также для приближенных расчетов или для контроля заключений на основании ^-критерия, когда эти заключения выглядят неправдоподобными. Предполагается, что сравниваемые выборки относятся к распределениям одинакового типа [Gibbons, 1964], [Pratt, 1964], [Edington, 1965]. Если это не так, то нужно следовать указанию 6 (с. 280). Асимптотическая эффективность . (/-критерия (так же, как и Я-крктерия) в случае произвольного распределения не может быть ниже 86,4% [Hodges, Lehman, 1956]; она равна 100% у критериев Ван дер Вар- дена (Х-критерий) [Van der Waerden, 1965], Терри — Хоффдинга и Белла—Донсама; расчетные примеры и указания к основным таблицам даны в [Ritz, 1967/68], а также в [Penfield, McSweeney, 1968]. (/-критерий Уилкоксона, Манна и Уитни проверяет нуль-гипотезу: две независимые выборки принадлежат одной и той же генеральной совокупности, их функции распределения вероятностей равны: F1(x) = F2 (х). Эта гипотеза включает также равенство положений^ в частности равенство значений медиан^ — |х2 [Potthoff, 1963] и равенство средних значений ^ = р2. 270
Для вычисления статистики U упорядочивают (т + п) значений объединенной выборки по величине (см. с. 261), причем каждому рангу приписывают, к какой из выборок он относится. Пусть сумма рангов первой выборки равна Rl7 второй выборки — R2- Вычисляем = тп и проверяем правильность вычислений по формуле иг + U2 = тп. C.49) Искомая статистика есть меньшее из значений иг и ?/2- Нуль-гипотеза отвергается, когда вычисленное (/-значение меньше критического значения U(mt n; а) из табл. 63 или равно ему. Для достаточно больших выборок (т + п > 60) справедлива превосходная аппроксимация l/" C.50) Значение z для двух-или одностороннего критерия может быть определено по табл. 43 с. 204. Вместо выражения C.50) в случаях, когда значение а не может быть заранее задано или нет таблиц критических значений 13 (т, п\ а) и когда объемы выборок не слишком малы (т ^ 8, п ^ 8 [Mann, Whitney, 1947]), используется следующее выражение: тп(т+п+\) 12 C.51) Полученное значение z сравнивается с таблицами стандартного нормального распределения (табл. 14, с. 68 или табл. 43, с. 204). ^-критерий для однородных подгрупп выборок подробно рассмотрен в [Lienert, Schulz, 1967]. Пример Проверьте две упорядоченные по величине выборки А и В А: 7 14 22 36 40 48 49 52 (т = 8) В: 3 5 6 10 17 18 20 39 (п = 8) на равенство средних значений (\1А = \хв против \1а > Ця); a = = 0,025. Поскольку имеются значительные отклонения от нормального распределения, ^-критерий заменяется на (/-критерий, с помощью 271
Та бл и ц а Уилкоксона, т 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 1 — — — — — 0 0 0 0 0 0 0 0 0 0 1 1 1 1 2 2 2 2 2 2 2 2 2 2 3 ? \ 2 0 0 1 1 1 2 2 3 3 4 4 5 5 5 6 6 7 7 8 8 9 9 9 10 10 11 11 12 12 13 13 13 14 14 15 15 16 16 3 1 1 2 3 4 5 5 6 7 8 9 10 10 11 12 13 14 15 15 16 17 18 19 20 21 21 22 23 24 25 26 26 27 28 29 30 31 31 63. Критические Манна 4 3 4 5 6 7 9 10 11 12 13 15 16 17 18 20 21 22 23 25 26 27 28 30 31 32 33 35 36 37 38 40 41 42 43 45 46 47 5 5 7 8 10 12 13 15 17 18 20 22 23 25 27 28 30 32 33 35 36 38 40 41 43 45 46 48 50 51 53 55 56 58 60 61 63 и 6 9 11 13 15 17 19 21 23 25 27 29 31 34 36 38 40 42 44 46 48 50 52 54 56 58 61 63 65 67 69 71 73 75 77 79 Уитни:( 7 13 16 18 21 23 26 28 31 33 36 38 41 43 46 48 51 53 56 58 61 63 66 68 71 73 76 78 81 83 86 88 91 93 96 8 19 22 24 27 30 33 36 39 42 45 48 51 54 56 59 62 65 68 71 74 77 80 83 86 89 92 95 98 100 103 106 109 112 значения U х = 0 9 25 28 31 35 38 41 45 48 52 55 58 62 65 68 72 75 78 82 85 88 92 95 99 102 Ю5 109 112 115 119 122 126 129 ,10, 10 32 36 39 43 47 51 54 58 62 66 70 73 77 81 85 89 92 96 100 104 108 111 115 119 123 127 131 134 138 142 146 для одностороннего i двусторонни] 11 40 44 48 52 57 61 65 69 73 78 82 86 90 95 99 103 107 112 116 120 124 129 133 137 141 146 150 154 158 163 п 12 49 53 58 63 67 72 77 81 86 91 95 100 105 109 114 119 123 128 133 137 142 147 151 156 161 166 170 175 180 13 58 63 68 74 79 84 89 94 99 104 109 114 120 125 130 135 140 145 150 156 161 166 171 176 181 186 192 197 i критерий: а 14 69 74 80 85 91 97 102 108 113 119 124 130 136 141 147 152 158 163 169 175 180 186 191 197 203 208 214 15 80 86 92 98 104 ПО 116 122 128 134 140 146 152 158 164 170 177 183 189 195 201 207 213 219 225 231 16 93 99 106 112 119 125 131 138 144 151 157 164 170 177 183 190 196 203 209 216 222 229 235 242 248 критерия = 0,20. 17 106 113 120 127 134 141 147 154 161 168 175 182 189 196 203 210 217 224 230 237 244 251 258 265 18 120 128 135 142 150 157 164 172 179 186 194 201 209 216 223 231 238 245 253 260 268 275 282 19 135 143 151 159 167 174 182 190 198 206 213 221 229 237 245 253 260 268 276 284 292 300* 20 151 160 168 176 184 193 201 209 217 226 234 242 251 259 267 275 284 292 301* 309* 317* * Предполагается, что значения распределены приближенно по нормальному закону. Источник: Milton R. С. An extended table of critical values for the Mann—Whitney (Wilcoxon) two-sample statistic, /. Amer. Statist. Ass., 59, 1964, 925—934. 272
Та б Л I \ ц а 63 (продолжение критерия Уилкоксона, т 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 1 — — — — — — — — — — — — — — 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 1 1 2 _ 0 0 0 1 1 1 1 2 2 3 3 3 3 4 4 4 5 5 5 6 6 6 7 7 7 7 8 8 8 9 9 9 Ю 10 Ю 11 3 0 0 1 2 2 3 4 4 5 5 6 7 7 8 9 9 10 И И 12 13 13 14 15 15 16 17 17 18 19 19 20 21 21 22 23 23 24 4 1 2 3 4 5 6 7 8 9 Ю 11 12 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 38 39 5 4 5 6 8 9 11 12 13 15 16 18 19 20 22 23 25 26 28 29 30 32 33 35 36 38 39 40 42 43 45 46 48 49 50 52 53 6 7 8 10 12 14 16 17 19 21 23 25 26 28 30 32 34 36 37 39 41 43 45 46 48 50 52 54 56 57 59 61 63 65 67 68 Манна 7 11 13 15 17 19 21 24 26 28 30 33 35 37 39 41 44 46 48 50 53 55 57 59 61 64 66 68 70 73 75 77 79 82 84 8 15 18 20 23 26 28 31 33 36 39 41 44 47 49 52 54 57 60 62 65 68 70 73 76 78 81 84 86 89 91 94 97 99 1). Критические и Уитнн 9 21 24 27 30 33 36 39 42 45 48 51 54 57 60 63 66 69 72 75 78 82 85 88 91 94 97 100 103 106 109 112 115 10 27 31 34 37 41 44 48 51 55 58 62 65 68 72 75 79 82 86 89 93 96 100 103 107 ПО 114 117 121 124 128 131 значения U ДЛЯ : а=0,05; двусторонний и 34 38 42 46 50 54 57 61 65 69 73 77 81 85 89 92 96 100 104 108 112 116 120 124 128 131 135 139 143 147 п 12 42 47 51 55 60 64 68 72 77 81 85 90 94 98 103 107 111 116 120 124 128 133 137 141 146 150 154 159 163 13 51 56 61 65 70 75 80 84 89 94 98 103 108 113 117 122 127 132 136 141 146 151 156 160 165 170 175 179 14 61 66 71 77 82 87 92 97 102 107 ИЗ 118 123 128 133 138 144 149 154 159 164 170 175 180 185 190 196 15 72 77 83 88 94 100 105 111 116 122 128 133 139 144 150 156 161 167 172 178 184 189 195 201 206 212 16 83 89 95 101 107 113 119 125 131 137 143 149 156 162 168 174 180 186 192 198 204 210 216 222 228 одностороннего критерий: а 17 96 102 109 115 121 128 134 141 147 154 160 167 173 180 186 193 199 206 212 219 225 232 238 245 18 109 116 123 130 136 143 150 157 164 171 178 185 192 199 20& 212 219 256 233 240 247 254 261 19 123 130 138 145 152 160 167 174 182 189 196 204 211 218 226 233 241 248 255 263 270 278 = 0,10 20 138 146 154 161 169 177 185 192 200 208 216 224 231 239 247 255 263 271 278 286* 294* Таблица 63 (продолжение 2). Критические значения U для одностороннего критерия Уилкоксоиа, Манна и Уитни: а = 0,025; двусторонний критерий: а=0,05 т 1 2 4 12 3 4 5 6 7 8 0 п 9 10 11 12 13 14 15 16 17 18 19 20 273
m 1 2 3 * I 5 6 7 8 9 10 11 n 12 13 14 15 16 17 Продолжение 18 19 20 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 5 0 12 31 32 33 34 35 36 37 38 12 3 5 — 13 5 6 8 0 2 4 6 8 10 13 О 2 4 7 10 12 15 17 О 3 5 Ъ П 14 17 20 23 0 3 6 9 13 16 19 23 26 30 1 4 7 11 14 18 22 26 29 33 37 1 4 8 12 16 20 24 28 33 37 41 45 1 5 9 13 17 22 26 31 36 40 45 50 55 1 5 10 14 19 24 29 34 39 44 49 54 59 64 1 6 И 15 21 26 31 37 42 47 53 59 64 70 75 2 6 И 17 22 28 34 39 45 51 57 63 69 75 81 87 2 7 12 18 24 30 36 42 48 55 61 67 74 80 86 93 99 2 7 13 19 25 32 38 45 52 58 65 72 78 85 92 99 106 113 2 8 14 20 27 34 41 48 55 62 69 76 83 90 98 105 112 119 127 3 8 15 22 29 36 43 50 58 65 73 80 88 96 103 111 119 126 134 3 9 16 23 30 38 45 53 61 69 77 85 93 101 109 117 125 133 141 3 9 17 24 32 40 48 56 64 73 81 89 98 106 115 123 132 140 149 3 10 17 25 33 42 50 59 67 76 85 94 102 111 120 129 138 147 156 3 10 18 27 35 44 53 62 71 80 89 98 107 117 126 135 145 154 163 4 11 19 28 37 46 55 64 74 83 93 102 112 122 132 141 151 161 171 4 11 20 29 38 48 57 67 77 87 97 107 117 127 137 147 158 168 178 4 12 21 30 40 50 60 70 80 90 101 111 122 132 143 154 164 175 186 4 13 22 32 42 52 62 73 83 94 105 116 127 138 149 160 171 182 193 301 — 5 13 23 33 43 54 65 76 87 98 109 120 131 143 154 166 177 189 200 5 14 24 34 45 66 67 78 90 101 ИЗ 125 136 148 160 172 184 196 208 5 14 24 35 46 58 69 81 93 105 117 129 141 153 166 178 190 203 215 — 5 15 25 37 48 60 72 84 96 Ю8 121 133 146 159 171 184 197 210 222 — 5 15 26 38 50 62 74 87 99 112 125 138 151 164 177 190 203 217 230 — 6 16 27 39 51 64 77 89 103 П6 129 142 156 169 183 196 210 224 237 — 6 16 28 40 53 66 79 92 106 119 133 147 161 174 188 202 216 231 245 — 6 17 29 41 55 68 81 95 109 123 137 151 165 180 194 209 223 238 252 — 6 17 30 43 56 70 84 98 112 127 141 156 170 185 200 215 230 245 259 О 7 18 31 44 58 72 86 101 115 130 145 160 175 190 206 221 236 252 267 О 7 18 31 45 59 74 89 103 119 134 149 165 180 196 211 227 243 258 274 Таблица 63 (продолжение 3). Критические значения U для одностороннего критерия Уилкоксона, Манна и Уитни: а=0,01; двусторонний критерий: а=0,02 т 1 2 3 4 5 6 7 8 9 1 2 3 — 0 0 1 4 — 0 1 1 2 3 5 1 2 3 4 5 6 3 4 6 7 7 6 7 9 п 8 9 10 11 12 13 14 15 16 17 18 19 20 9 11 14 274
Продолжение т 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 1 2 — — ( — ( — ( — ( — ( — ( < с < ( ( ( с 3 - 1 - 1 - 2 ) 2 ) 2 3 3 3 3 3 4 3 4 1 4 1 5 1 5 [ 6 1 6 1 6 L 7 1 7 1 7 г 8 г 8 2 9 1 9 г 9 г ю 3 10 3 11 з и 3 11 3 12 3 12 3 13 4 3 4 5 5 6 7 7 8 9 9 10 И И 12 13 13 14 15 16 16 17 18 18 19 20 20 21 22 22 23 24 5 6 7 8 9 10 И 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 6 8 9 11 12 13 15 16 18 19 20 22 23 24 26 27 29 30 31 33 34 35 37 38 40 41 42 44 45 46 48 49 7 И 12 14 16 17 19 21 23 24 26 28 30 31 33 35 36 38 40 42 43 45 47 49 50 52 54 56 57 59 61 63 8 13 15 17 20 22 24 26 28 30 32 34 36 38 40 42 45 47 49 51 53 55 57 59 61 64 66 68 70 72 74 76 9 16 18 21 23 26 28 31 33 36 38* 40 43 45 48 50 53 55 58 60 63 65 68 70 73 75 78 80 83 85 88 90 ПО 19 22 24 27 30 33 36 38 41 44 47 50 53 55 58 61 64 67 70 73 76 78 81 84 87 90 93 96 99 101 104 п 11 25 28 31 34 37 41 44 47 50 53 57 60 63 66 70 73 76 79 83 86 89 92 96 99 102 106 109 112 115 119 12 31 35 38 42 46 49 53 56 60 64 67 71 75 78 82 85 89 93 96 ЮО 104 107 U1 U5 118 122 126 129 133 13 39 43 47 51 55 59 63 67 71 75 79 83 87 91 95 99 103 107 111 115 119 123 127 131 135 139 144 148 14 47 51 56 60 65 G9 73 78 82 87 91 95 100 104 109 ИЗ 118 122 127 131 135 140 144 149 153 158 162 15 56 61 66 70 75 80 85 90 94 99 104 109 114 119 123 128 133 138 143 148 153 158 162 167 172 177 16 66 71 76 82 87 92 97 102 108 ИЗ 118 123 129 134 139 144 150 155 160 165 171 176 181 187 192 17 77 82 68 93 99 105 110 116 122 127 133 139 144 150 156 161 167 173 178 184 190 195 201 207 18 88 94 100 106 112 118 124 130 136 142 149 155 161 167 173 179 185 191 197 203 209 216 222 19 101 107 ИЗ 120 126 133 139 146 152 159 165 172 178 185 191 198 204 211 217 224 230 237 20 114 121 127 134 141 14S 155 162 169 176 182 189 196 203 210 217 224 231 238 245 252 Таблица 63 (продолжение 4). Критические значения U для одностороннего критерия Уилкоксока, Манна и Уитни: а = 0,005; двусторонний критерий: а=0,01. 12 3 4 5 6 7 10 И 12 13 14 15 16 17 18 19 20 1 2 3 4 5 6 7 8 9 10 11 12 13 — i 0 0 0 1 1 0 0 1 1 2 2 3 3 0 1 1 2 3 4 5 6 У 2 3 4 5 6 7 9 10 4 6 7 9 10 12 13 7 9 11 13 15 17 И 13 16 18 20 16 18 21 21 24 27 24 27 31 34 275
Продолжение т 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 1 2 — ( — ( 3 ¦ 1 - 2 - 2 - 2 - 2 ) 3 ) 3 — 03 — ( — ( — ( — ( — ( — ] — 1 — 1 — я 1 ) 4 ) 4 ) 4 ) 5 ) 5 5 1 5 6 1 6 1 6 1 7 1 7 1 7 1 8 1 8 1 8 L 9 г 9 г 9 4 4 5 5 6 6 7 8 8 9 9 10 10 11 12 12 13 13 14 14 15 16 16 17 17 18 19 19 5 7 8 9 10 И 12 13 14 14 15 16 17 18 19 20 21 22 22 23 24 25 26 27 28 29 30 31 6 11 12 13 15 16 17 18 19 21 22 23 24 25 27 28 29 30 32 33 34 35 37 38 39 40 41 43 7 15 16 18 19 21 22 24 25 27 29 30 32 33 35 36 38 40 41 43 44 46 47 49 51 52 54 55 8 18 20 22 24 26 28 30 32 34 35 37 39 41 43 45 47 49 51 53 55 57 59 60 62 64 66 68 9 22 24 27 29 31 33 36 38 40 43 45 47 49 52 54 56 58 61 63 65 68 70 72 75 77 79 81 10 26 29 31 34 37 39 42 44 47 50 52 55 58 60 63 66 68 71 74 76 79 82 84 87 90 92 95 п 11 30 33 36 39 42 45 48 51 54 57 60 63 66 69 72 75 78 81 84 87 90 93 96 99 102 106 109 12 34 37 41 44 47 51 54 58 61 64 68 71 74 78 81 85 88 92 95 98 102 105 109 112 116 119 122 13 38 42 45 49 53 57 60 64 68 72 75 79 83 87 91 94 98 102 106 110 113 117 121 125 129 133 136 14 42 46 50 54 58 63 67 71 75 79 83 87 92 96 100 104 108 113 117 121 125 129 134 138 142 146 150 15 51 55 60 64 69 73 78 82 87 91 96 100 105 109 114 119 123 128 132 137 142 146 151 155 160 165 16 60 65 70 74 79 84 89 94 99 104 109 114 119 124 129 134 139 144 149 154 159 164 169 174 179 17 70 75 81 86 91 96 102 107 112 118 123 128 134 139 145 150 155 161 166 172 177 182 188 193 18 81 87 92 98 104 109 115 121 127 132 138 144 150 155 161 167 173 179 184 190 196 202 208 19 93 99 105 111 117 123 129 135 142 148 154 160 166 172 179 185 191 197 203 210 216 222 20 105 112 118 125 131 138 144 151 157 164 170 177 184 190 197 203 210 217 223 230 237 Таблица 63 (продолжение 5). Критические значения U для одностороннего критерия Уилкоксона, МаннаиУитни: а=0,001; двусторонний критерий: а=0,002. т 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 12 3 4 — —- — — — — — . 0 о 0 J 1 в 1 2 0 2 0 3 5 0 1 1 2 2 3 3 4 5 5 6 6 0 1 2 3 4 4 5 6 7 8 9 10 7 1 2 3 5 6 7 8 9 10 11 13 14 8 4 5 6 8 9 11 12 14 15 17 18 9 7 8 10 12 14 15 17 19 21 23 10 10 12 14 17 19 21 23 25 27 п 11 15 17 20 22 24 27 29 32 12 20 23 25 28 31 34 37 13 26 29 32 35 38 42 14 32 36 39 43 46 15 40 43 47 51 16 17 18 19 20 48 52 57 56 61 66 276
Продолжение т 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 1 2 3 С ( — — ; — — — — f _ ____ < —. . с ___ 1 < 4 ~~"~ ~~* «. — 1 4 ) 3 ) 3 4 1 4 1 4 1 5 1 5 1 6 1 6 г 6 2 7 * 7 2 7 2 8 J 8 3 9 3 9 * 9 5 10 3 10 1 И 1 11 5 7 7 8 8 9 10 10 11 12 12 13 14 14 15 15 16 17 17 18 19 19 20 6 11 12 12 13 14 15 16 17 18 19 20 21 22 23 24 25 25 26 27 28 29 30 7 15 16 18 19 20 21 22 24 25 26 27 29 30 31 32 34 35 36 37 39 40 41 8 20 21 23 24 26 27 29 31 32 34 35 37 38 40 41 43 45 46 48 49 51 52 9 25 26 28 30 32 34 36 38 40 41 43 45 47 49 51 53 55 57 58 60 62 64 10 29 32 34 36 38 40 43 45 47 49 52 54 56 58 61 63 65 67 70 72 74 76 п И 34 37 40 42 45 47 50 52 55 57 60 63 65 68 70 73 76 78 81 83 86 89 12 40 42 45 48 51 54 57 60 63 66 69 72 75 77 80 83 86 89 92 95 98 101 13 45 48 51 54 58 61 64 68 71 74 77 81 84 87 91 94 97 101 104 107 ПО 114 14 50 54 57 61 64 68 72 75 79 83 86 90 94 97 101 105 108 112 116 119 123 127 15 55 59 63 67 71 75 79 83 87 91 95 99 103 107 111 115 119 123 127 131 136 140 16 60 65 69 73 78 82 86 91 95 100 104 108 ИЗ 117 122 126 131 135 139 144 148 153 17 66 70 75 80 85 89 94 99 104 108 ИЗ 118 123 127 132 137 142 147 151 156 161 166 18 71 76 81 86 91 96 102 107 112 117 122 127 132 138 143 148 153 158 164 169 174 179 19 77 82 87 93 98 104 109 115 120 126 131 137 142 148 153 159 165 170 176 181 187 192 20 88 94 99 105 111 117 123 129 135 140 146 152 158 164 170 176 182 188 194 200 206 которого, разумеется, сравнивают прежде всего медианы. Помните, что сравниваются функции распределения! Ранг Значение 1 3 2 5 3 6 4 7 5 10 6 14 7 17 8 18 9 20 10 22 11 36 12 39 13 40 14 48 15 49 16 52 Выборка /?1 = 89 Я2 = 47 В 1 В В +2+3 А В 4 +5 А +6 В В +7+8 В А +10 +9 А +П В А +13 +12 А + 14 А +15 А +16 —89=11; ?/2 = —47 = 53; U1 + f/a= 64 =>тп. Так как 1!< 13 = U (8,8; 0,025; односторонний критерий), то нуль-гипотеза отвергается, альтернативная гипотеза {д»л > \}>в принимается на 2,5%-ном уровне. Согласно C.51) получаем 8-8 11- 8.8(8 + 8+1) 12 = 2,205, 277
и соотношение Р = 0,014 < 0,025 приводит к тому же самому заключению B0.025одн.крит. =* 1,96). (/-критерий при ранговом распределении Если у двух выборок, элементы которых упорядочены по величине, имеются многократно повторяющиеся элементы, то одинаковым элементам присваивается средний ранг. Например, получаем: Значение Выборка Ранг 1 3 В ъ 3 В 1.5 4 В 3 5 В 5,5 5 В 5,5 5 А 5,5 5 А 5,5 8 А 8,5 8 В 8,5 9 А 10 10 В 11 13 А 13 13 А 13 13 А 13 15 А 15 16 16 для первых двух В-значений ранг A + 2)/2 = 1,5; 4 пятерки имеют ранг 5,5 = D + 5 + 6 + 7)/4; для двух восьмерок получаем ранг 8,5; значение 13 повторяется три раза, поэтому ранг равен 3 Такие связи (объединения) оказывают влияние на значение U только тогда, когда они имеются между двумя выборками, но не тогда, когда они внутри одной выборки. Если в обеих выборках наблюдаемые значения одинаковы, то для ?/-критерия справедлива следующая скорректированная формула: z == l/V mn 1 Г S2-S __ у t?—tr 1 V L 5E—1) J '[ 12 ^ 12 J C.52) где 5 = т + п. В корректирующем члене 2 (tf—tr) /12 [Walter, 1951] через tr обозначается число значений, которые имеют одинаковый ранг. Число г означает, что имеется г групп значений с одинаковыми рангами; для каждого г определяется, сколько раз встречается одинаковое значение, эта частота возводится в третью степень, из нее вычитается первая степень результат делится на 12. Зти вычисления проводятся для всех групп, результаты суммируются и дают корректирующее значение. Для приведенного выше примера имеем четыре группы значений с одинаковыми рангами, г = 4: группа 1 fi = 2: два значения 3 с рангом 1,5; группа 2 t2 = 4 : четыре значения 5 с рангом 5,5; группа 3 /з = 2 : два значения 8 с рангом 8,5; группа 4 /4 = 3: три значения 13 с рангом 13. —*»- = 23-2 . 43--4 , 23--2 _L 33- 12 12 12 12 "' 12 278
12 12 12 12 Далее A:m = 8\ ^ = 83,5; В: п = 8, R2 = 52,5. 8(8+1) -83,5 = 16,5; 52,5 = 47,5; = 64 = mn\ 8-8 16,5— = 1,647, 1/ L"ieo5=irJ ¦ L—«—M0J Так как 1,65 < 1,96, то при двустороннем критерии и а = 0,05 нуль-гипотеза сохраняется. U-критерий — это самый строгий непараметрический критерий. Так как статистика U— очень сложная функция от среднего значения, эксцесса и асимметрии (с помощью {/-критерия сравниваются не только средние значения и медианы), то нужно подчеркнуть, что с увеличением различия между генеральными совокупностями надежность границ значимости будет уменьшаться. Если нужно сравнивать между собой больше чем 2 независимые выборки, то можно провести попарное сравнение. Совместное непараметрическое сравнение нескольких выборок возможно провести по //-критерию Краскела — Валлиса. Примечания 1. Появившийся ранее критерий Уилкоксона для двух выборок (см. [Jacobson, 1963]) в настоящее время также полностью табулирован [Wilcoxon, 1963, 1964]. 2. Так как упорядочение рангов при больших объемах выборок сгруппированных значений может быть весьма громоздкой процедурой, в [Raatz, 1966] предложен значительно более простой способ, который точен в случае небольшого числа классов; если имеется небольшое число или совсем нет одинаковых значений, то этот критерий дает вполне удовлетворительное приближение. Способ может быть применен также для Я-критерия Краскела — Валлиса. 3. Другие частные модификации ^/-критерия даны в [Halperin, 1960] и [Saw, 1966]. «Последовательный план использования» критерия Уилкоксона для сравнения двух видов терапии, который при определенных обстоятельствах позволяет значительно уменьшить число наблюдений, описан-в [Ailing, 1963] (см. также [Chun, 1965]). 4. Два интересных последовательных ранговых критерия для двух выборок предложены в [Wilcoxon, Bradley, 1963, 1965, 1966]. 5. Простой и распространенный критерий для сравнения медиан. Критерий действительно простой: объединенную выборку объемом («! + п2) упорядочивают по величинам, определяют значение медианы х и распределяют затем значения каждой выборки в зависимости от того, больше они или меньше, чем объединенная медиана, по следующей схеме (af b, с, d — частоты): 279
Выборка I Выборка II Число значений а с Ь d Дальнейшие расчеты проводятся при малых выборках (подробнее об этом см. с. 318) в соответствии с разделом 4. 6. 7 (точный критерий Фишера), при больших выборках — с разделом 4.6.1 (%2-критерий или G-критерий с поправкой на непрерывность или без нее). При значимой разности нуль-гипотеза ^i — 7*2 на принятом уровне отклоняется. Асимптотическая эффективность критерия по Муду [Mood, 1954] составляет 2/я си 64%, т. е. применение этого критерия для 1000 значений показывает ту же мощность критерия, как и применение /-критерия для 0,64-1000 = 640 значений при условии, что справедливо нормальное распределение. При других распределениях это соотношение может быть совсем другим, поэтому критерием сравнения медиан пользуются для приближенных расчетов или для контроля заключений при их высокой значимости, если они кажутся сомнительными. Если контро